"Fermare lo sviluppo mette a rischio la trasparenza"

In una lettera di apertura, i giganti della scienza e dell'industria chiedono di fermare l'addestramento di nuovi modelli linguistici di IA più potenti del GPT-4. Andreas Krause e Alexander Ilic dell'ETH AI Center ritengono che ciò sia difficile da attuare e comporti dei rischi.

Andreas Krause e Alexander Ilic nel corridoio di un ufficio vuoto
Andreas Krause (a sinistra) e Alexander Ilic (a destra). (Immagine: Nicola Pitaro / ETH di Zurigo)

L'ETH News: Signor Krause, i giganti della tecnologia stanno chiamando in causa un pagina esternalettera aperta una moratoria sulla formazione di sistemi di intelligenza artificiale (AI) più potenti del GPT-4. ? opportuna una misura così drastica?
Andreas Krause: Dubito che questa richiesta possa essere applicata, poiché dietro lo sviluppo ci sono grandi interessi commerciali e strategici. Inoltre, è difficile stabilire cosa debba essere limitato nello specifico senza distorcere la concorrenza e compromettere l'innovazione nelle applicazioni. Anche se venisse imposta una moratoria, nessuno sarebbe in grado di garantire che il lavoro sulla formazione di tali modelli non continui in modo occulto.

Questo porterebbe a una minore trasparenza.
Krause: Esattamente. In questo modo si corre il rischio che lo sviluppo, prima ampiamente aperto e trasparente, diventi meno accessibile e meno trasparente. In questo modo, ad esempio, sarebbe quasi impossibile capire su quali dati sono stati addestrati i modelli attuali e quali pregiudizi sono associati ad essi. Questa tendenza esiste già.

Fermare lo sviluppo non è quindi una buona idea.
Alexander Ilic: No, perché ci sono grossi punti interrogativi sugli attuali modelli linguistici in termini di attendibilità, affidabilità e comprensibilità. Questi elementi sono di grande importanza e hanno assolutamente bisogno di essere studiati più intensamente e discussi criticamente Chi siamo.

Cosa suggerisce come alternativa?
Krause: Da un lato, la ricerca fondamentale è necessaria per sviluppare la prossima generazione di tecnologie AI più sicure e affidabili. Dall'altro lato, dovremmo portare avanti una ricerca interdisciplinare e mostrare come queste tecnologie possano essere utilizzate in modo redditizio per le persone. Solo quando l'IA sarà affidabile e degna di fiducia, potrà essere utilizzata in modo sensato, ad esempio nel settore sanitario, e fungere da strumento utile per le persone.

Che ruolo ha l'ETH AI Center di Zurigo in questo contesto?
Krause: All'ETH AI Center combiniamo ricerca di base e interdisciplinare. L'obiettivo del centro è promuovere tecnologie e aree di applicazione che aiutino il pubblico in generale. La nostra ricerca è anche aperta e trasparente.

Ilic: Vogliamo contrastare la tendenza secondo cui la ricerca sull'IA si svolge sempre più a porte chiuse e ci concentriamo sulla collaborazione interdisciplinare in apertura tra ricerca, industria e start-up. Riteniamo che i contributi più importanti vengano apportati alle interfacce tra discipline come l'IA e la medicina o l'IA e le scienze umane. Per questo abbiamo creato un programma di borse di studio in cui attiriamo i migliori talenti del mondo e li riuniamo presso l'ETH AI Center. Con una percentuale del 50% di donne e collaboratori provenienti da Chi siamo, siamo anche riusciti a creare fin dall'inizio una cultura che discute criticamente le opportunità e i rischi dell'IA e contribuisce a plasmarli in modo responsabile.

Gli autori chiedono inoltre che un organismo di revisione indipendente sviluppi protocolli di sicurezza per la progettazione dell'intelligenza artificiale durante il blocco. Cosa ne pensano?
Ilic: Lo sviluppo di procedure d'esame e la certificazione di tecnologie basate sull'IA è certamente un tema importante e deve essere perseguito nel contesto di applicazioni specifiche. Tuttavia, è anche importante formare nuovi modelli linguistici in modo trasparente e contribuire attivamente a dare forma alla ricerca, invece di concentrarsi semplicemente sul controllo e sulla revisione dei modelli linguistici esistenti. Questo è l'unico modo per garantire che i sistemi diventino più affidabili, sicuri e affidabili. Le grandi aziende perseguono interessi commerciali e tendono quindi a concentrarsi sui mercati più grandi e sulle regioni culturali e linguistiche. Abbiamo quindi aderito alla rete europea di ricerca sull'IA ELLIS per contribuire a plasmare il mondo dell'IA secondo i valori europei. Tuttavia, c'è ancora molto potenziale per promuovere ulteriormente il tema della diversità. Ad esempio, si potrebbero creare set di dati in apertura su diversi gruppi culturali e linguistici in modo mirato o, nel caso di feedback da parte di persone, si potrebbe prestare attenzione ai gruppi culturali da cui provengono gli intervistati per ridurre i pregiudizi in seguito. Non sarà possibile obbligare i fornitori commerciali a farlo da soli. Ma la ricerca potrebbe rendere più facile per le aziende rendere i loro sistemi più affidabili, gestendo i propri dati in apertura e trasparenza.

La lettera di apertura avverte anche che i nuovi modelli linguistici potrebbero diffondere propaganda e falsità. Lei è d'accordo?
Krause: Negli ultimi mesi si è assistito a un rapido sviluppo dei modelli di intelligenza artificiale generativa: ? possibile generare testi e immagini che sembrano sempre più realistici. Questi possono essere utilizzati per campagne di disinformazione. Sebbene siano in corso ricerche su come riconoscere tali testi e immagini generate, questo sviluppo rappresenta un rischio reale.

Gli autori vedono anche il pericolo che gli esseri umani possano perdere il lavoro grazie all'uso dell'IA o addirittura essere completamente sostituiti dalle macchine a un certo punto. Non è esagerato?
Krause: Mi infastidisce che pericoli seri, come le preoccupazioni per la disinformazione, e fantascienza, come la conquista del mondo da parte delle macchine, vengano accomunati. Questo rende difficile avere una discussione e un dialogo fondati sui rischi reali. L'IA cambierà certamente il mondo professionale per sempre. ? sempre più difficile immaginare quali nuovi lavori e campi professionali emergeranno piuttosto che quali mansioni esistenti potrebbero essere interessate dall'automazione.

Ilic: In passato ci sono state preoccupazioni simili nel contesto delle nuove tecnologie, come l'industrializzazione o la digitalizzazione. ? più probabile che le persone che lavorano vengano sostituite da altre in grado di gestire l'IA piuttosto che l'IA sostituisca completamente il lavoro. Sarà quindi fondamentale sostenere la popolazione e l'economia in questa trasformazione.

Andreas Krause Andreas Krause è responsabile dell'ETH AI Center e professore di informatica all'ETH di Zurigo, dove dirige il gruppo "Learning & Adaptive Systems".

Alexander Ilic è il direttore generale dell'ETH AI Center dell'ETH di Zurigo.

JavaScript è stato disabilitato sul tuo browser