"Un arrêt du développement met en péril la transparence"

Dans une lettre ouverte, des grands noms de la tech issus de la science et de l'économie demandent l'arrêt de l'entra?nement de nouveaux modèles linguistiques d'IA plus performants que GPT-4. Andreas Krause et Alexander Ilic de l'ETH AI Center estiment que cette mesure est difficile à mettre en ?uvre et qu'elle comporte des risques.

Andreas Krause et Alexander Ilic dans le couloir d'un bureau vide
Andreas Krause (à gauche) et Alexander Ilic (à droite). (Image : Nicola Pitaro / ETH Zurich)

Actualités ETH : Monsieur Krause, des grands de la tech demandent dans une page externelettre ouverte un moratoire sur l'entra?nement des systèmes d'intelligence artificielle (IA) plus puissants que GPT-4. Une mesure aussi radicale est-elle appropriée ?
Andreas Krause : Je doute que cette exigence soit réalisable, car de gros intérêts commerciaux et stratégiques se cachent derrière le développement. De plus, il est difficile de déterminer ce qui doit être concrètement limité sans fausser la concurrence et mettre en péril l'innovation dans l'application. Même si un tel moratoire était décidé, personne ne pourrait garantir que l'entra?nement de tels modèles ne se poursuive pas de manière cachée.

Cela entra?nerait moins de transparence.
Krause : Exactement. Cela comporte le risque que le développement, qui était auparavant largement ouvert et transparent, devienne plus inaccessible et opaque. Il ne serait par exemple plus guère possible de savoir sur la base de quelles données les modèles actuels ont été entra?nés et quels sont les biais, c'est-à-dire les distorsions, qui y sont liés. Cette tendance existe déjà.

Un arrêt du développement n'est donc pas une bonne idée.
Alexander Ilic : Non, car les modèles linguistiques actuels suscitent de grands points d'interrogation quant à leur fiabilité, à leur fiabilité et à leur reproductibilité. Ces éléments sont d'une grande importance et doivent absolument faire l'objet de recherches plus poussées et d'une discussion critique au-delà des frontières disciplinaires.

Que proposent-ils comme alternative ?
Krause : D'une part, la recherche fondamentale doit être mise à contribution pour développer la prochaine génération de technologies d'IA plus s?res et plus fiables. D'autre part, nous devrions faire avancer la recherche multidisciplinaire et montrer comment ces technologies peuvent être utilisées de manière profitable pour l'homme. Ce n'est que lorsque l'IA sera fiable et digne de confiance qu'elle pourra être utilisée à bon escient, par exemple dans le domaine de la santé, et servir d'outil utile aux personnes.

Quel est le r?le de l'ETH AI Center de l'ETH Zurich dans ce contexte ?
Krause : Au ETH AI Center, nous combinons les deux, la recherche fondamentale et la recherche multidisciplinaire. L'objectif du centre est de promouvoir des technologies et des domaines d'application qui aident la collectivité. De plus, notre recherche est ouverte et transparente.

Ilic : Nous voulons contrer la tendance selon laquelle la recherche en IA se fait de plus en plus à huis clos et misons sur une collaboration ouverte et multidisciplinaire entre la recherche, l'industrie et les start-ups. Nous pensons que des contributions importantes naissent en particulier aux interfaces entre les disciplines, comme par exemple l'IA et la médecine ou l'IA et les sciences humaines. C'est pourquoi nous avons créé un programme de bourses dans le cadre duquel nous attirons les meilleurs talents du monde entier et les réunissons à l'ETH AI Center. Avec une proportion de femmes de 50 % et des collaborateurs de plus de 26 pays, nous avons également pu créer dès le début une culture qui discute de manière critique des chances et des risques de l'IA et participe à leur élaboration de manière responsable.

Les auteur(e)s demandent en outre que, pendant l'arrêt, une instance d'examen indépendante élabore des protocoles de sécurité pour la conception d'intelligences artificielles. Qu'en pensent-ils ?
Ilic : Le développement de procédures d'examen et la certification de la technologie basée sur l'IA est certainement un sujet important, et doit être suivi dans le contexte d'applications concrètes. Mais il est également important que nous formions de nouveaux modèles linguistiques de manière transparente et que nous participions activement à la recherche, au lieu de nous consacrer uniquement au contr?le et à la vérification des modèles linguistiques déjà existants. Ce n'est qu'ainsi que nous pourrons garantir que les systèmes deviennent plus fiables, plus s?rs et plus fiables. Les grandes entreprises poursuivent des intérêts commerciaux et auront donc tendance à se concentrer sur les plus grands marchés et les régions culturelles et linguistiques. Nous avons donc rejoint le réseau européen de recherche en IA ELLIS afin de contribuer à fa?onner le monde de l'IA selon les valeurs européennes. Mais il y a encore beaucoup de potentiel ici pour promouvoir encore plus le thème de la diversité. On pourrait par exemple créer de manière ciblée des ensembles de données ouverts sur les différentes cultures et langues ou, en cas de feedback par des personnes, faire attention aux milieux culturels dont sont issues les personnes interrogées afin de réduire ultérieurement les biais. On ne pourra pas obliger les fournisseurs commerciaux à le faire eux-mêmes. Mais la recherche pourrait aider les entreprises à rendre leurs systèmes plus fiables en faisant preuve d'ouverture et de transparence dans le traitement de leurs propres données.

La lettre ouverte met également en garde contre le fait que les nouveaux modèles linguistiques pourraient diffuser de la propagande et des contre-vérités. ?tes-vous d'accord avec cela ?
Krause : Les modèles d'IA génératifs ont connu une évolution fulgurante au cours des derniers mois : Il est possible de générer des textes et des images qui semblent de plus en plus réalistes. Ceux-ci peuvent effectivement être utilisés pour des campagnes de désinformation. Bien que des recherches soient également menées pour savoir comment reconna?tre ces textes et images générés, cette évolution représente un risque réel.

Les auteurs considèrent également que l'utilisation de l'IA risque de faire perdre leur emploi aux hommes, voire de les faire remplacer par des machines. N'est-ce pas exagéré ?
Krause : Ce qui me dérange, c'est que les dangers à prendre au sérieux, comme par exemple la crainte de la désinformation, et la science-fiction, comme la prise de contr?le du monde par des machines, sont mis dans le même sac. Cela rend difficile une discussion approfondie et un dialogue sur les risques réels. L'IA va certainement modifier durablement le monde professionnel. Il est toujours plus difficile d'imaginer quels nouveaux emplois et champs professionnels seront créés que quelles t?ches existantes pourraient être affectées par l'automatisation.

Ilic : Des préoccupations similaires ont été exprimées par le passé dans le contexte des nouvelles technologies, comme l'industrialisation ou la digitalisation. Il est plus probable que les personnes au travail soient remplacées par d'autres qui savent utiliser l'IA plut?t que de voir l'IA remplacer complètement le travail. Il sera donc crucial de soutenir la population et l'économie dans cette transformation.

Andreas Krause est directeur de l'ETH AI Center et professeur d'informatique à l'ETH Zurich, où il dirige le groupe "Learning & Adaptive Systems".

Alexander Ilic est le directeur de l'ETH AI Center de l'ETH Zurich.

JavaScript a été désactivé sur votre navigateur