L'aube d'une intelligence artificielle fiable et coopérative

Assistons-nous à l'essor d'une autre intelligence artificielle (IA), adaptable, capable de collaborer avec les humains et de les aider à prendre des décisions judicieuses ? L'informaticienne Niao He étudie comment sécuriser théoriquement une telle IA pour qu'elle soit réellement utile.

Portrait de Niao He
Niao He a en tête une intelligence artificielle digne de confiance et coopérative, qui n'agit pas en concurrence avec les humains, mais collabore avec eux et les soutient par des décisions intelligentes et transparentes. (Image : Nicole Davidson)

En tant que chercheuse, Niao He s'intéresse à l'homme et à la technique. Sa conférence de presse le?on inaugurale,La conférence de presse a été l'occasion pour elle de décrire en quelques mots l'impact des logiciels d'apprentissage sur notre vie quotidienne : "Nous sommes à l'aube d'une nouvelle ère de l'intelligence artificielle et nous sommes tous stupéfaits de ce que l'IA accomplit déjà aujourd'hui et de la manière dont elle change déjà notre quotidien." Dans son exposé, la professeure d'informatique du Institut d'apprentissage automatique l'état actuel de développement de l'intelligence artificielle avec l'aube, lorsque le jour qui se lève promet de grandes choses et que nous sentons que beaucoup de travail nous attend encore.

L'image de l'aube reflète à elle seule l'essor frappant qu'ont connu ces dernières années la recherche et le développement dans le domaine de l'apprentissage automatique et de l'intelligence artificielle. Les nouvelles connaissances mathématiques et algorithmiques, l'augmentation considérable des performances du matériel, les modules logiciels d'IA librement disponibles ainsi que les énormes quantités de données permettant d'entra?ner l'intelligence artificielle ont fait bondir les possibilités d'application de l'IA.

Aujourd'hui, les ordinateurs sont capables d'apprendre de manière automatique au moyen de méthodes statistiques et axées sur les données. Ils complètent les connaissances humaines en extrayant automatiquement des modèles et des régularités d'énormes ensembles de données trop complexes et trop volumineux pour les humains. L'IA peut par exemple découvrir de cette manière de nouvelles structures de protéines et contribuer ainsi au développement de nouveaux médicaments. Niao He souhaite aller plus loin et développer une IA capable de faire plus que de reconna?tre des modèles. En accord avec les valeurs du ETH AI Centers, dont ?quipe de base lui appartient, elle envisage une intelligence artificielle digne de confiance et collaborative, qui ne travaille pas en concurrence avec les humains, mais avec eux et les soutient par des décisions intelligentes et compréhensibles.

En regardant cette vidéo, vous acceptez la déclaration de confidentialité de YouTube.En savoir plus OK
Vers une IA de confiance - Niao He explore la manière dont l'IA peut contribuer à des décisions opérationnelles intelligentes. (Vidéo : ETH Zurich / Nicole Davidson)

L'IA comme compagne de route et conseillère

L'objectif lointain de ses recherches est une IA adaptable qui, comme les humains eux-mêmes, s'adapte rapidement et de manière flexible aux changements de conditions environnementales et assiste les humains comme une conseillère lors de décisions inhabituellement difficiles. Niao He s'inspire également de sa propre expérience de vie : Après avoir obtenu un bachelor en Chine, elle a étudié et fait de la recherche pendant dix ans en Géorgie et dans l'Illinois (?tats-Unis) avant de venir en Suisse en 2020. ? chaque déménagement, elle s'est adaptée à une autre culture et a acquis de nouvelles compétences - elle a par exemple appris à conduire dans l'Illinois et à parler allemand à Zurich. "Lorsque je rencontrais un environnement totalement nouveau, je souhaitais souvent qu'une IA m'aide à prendre les meilleures décisions possibles".

Dans ses recherches, Niao He s'intéresse à l'optimisation, à l'automatisation et à la prise de décision intelligente dans les organisations : son groupe étudie les principes qui permettent de concevoir des algorithmes - c'est-à-dire des règles de calcul sur la base desquelles un logiciel intelligent est programmé - de manière suffisamment solide sur le plan mathématique pour que l'IA fonctionne toujours de manière fiable et permette de résoudre des problèmes sur la base de données et de prendre des décisions intelligentes. Pour que l'IA complète réellement le travail de l'homme au lieu de le remplacer, l'équipe de Hes recherche de nouvelles approches de l'IA et des méthodes alternatives d'apprentissage automatique. "Aujourd'hui, nous développons presque couramment des programmes intelligents pour résoudre des problèmes réels d'une extrême complexité avec d'énormes quantités de données", explique-t-elle.

Apprendre à gérer l'incertitude et l'inconnu

En fait, la plupart des procédés d'IA améliorent aujourd'hui la qualité de leurs résultats en apprenant ce qui fonctionne à partir de grands ensembles de données d'entra?nement et en augmentant ainsi leur fiabilité. "Dans le quotidien de l'entreprise, les problèmes que l'IA est censée résoudre sont toutefois soumis à de nombreuses incertitudes", fait remarquer Niao He. Ces incertitudes peuvent être de nature technique ou humaine. Elles peuvent concerner aussi bien les données et la sécurité des données que l'utilisation de plateformes partagées ou les erreurs systématiques commises par les humains ("human bias" en anglais).

"Pour que l'intelligence artificielle fonctionne de manière fiable même dans l'incertitude et dans des conditions changeantes, il est important que nous formulions les incertitudes de manière mathématique et que nous les intégrions dans nos algorithmes d'apprentissage. C'est ce à quoi nous travaillons ", explique Niao He, " nous avons besoin de systèmes d'IA qui prennent des décisions non contradictoires au fil du temps ; qui apprennent à gérer les incertitudes ou les environnements inconnus, et qui peuvent s'adapter à de nouvelles t?ches."Une approche prometteuse qui pourrait conduire à une IA capable de s'adapter est le "reinforcement learning". Dans ce cas, un processus d'apprentissage intelligent augmente la fiabilité de ses résultats gr?ce à une interaction répétée avec l'environnement. L'équipe de Niao Hes étend également cette approche aux cas où les données sont rares ou où l'expérience humaine fait totalement défaut.

La fiabilité dans le temps crée la confiance

Pour Niao He, il est clair que "l'IA doit être 'centrée sur l'homme', c'est-à-dire qu'elle doit être axée sur l'homme, exprimer nos valeurs et fonctionner de manière fiable". Elle partage l'avis selon lequel des valeurs telles que la fiabilité, la transparence, la protection des données, l'équité, l'éthique, la responsabilité et la responsabilité devraient servir de principes directeurs pour l'utilisation de l'IA dans la pratique. "Une IA digne de confiance fonctionne de manière fiable sur une longue période. La fiabilité au fil du temps crée la confiance", expose-t-elle.

"Il me manque malheureusement trop souvent dans l'image de l'IA digne de confiance les aspects théoriques de l'IA".
Niao He

La théorie lui tient à c?ur. Elle est consciente que parler de fiabilité est ambigu : "L'IA digne de confiance est pour moi un mot très magique, car il a été surchargé de nombreuses significations. Pour moi, la fiabilité est une question de méthodologie", ajoute-t-elle résolument : "Nous devrions développer l'IA dès le départ de manière à ce qu'elle soit mathématiquement irréprochable et théoriquement validée avant de l'utiliser dans la pratique. Il me semble malheureusement que les aspects théoriques de l'IA manquent trop souvent dans l'image d'une IA digne de confiance".

Conna?tre les limites, augmenter la diversité

Comme il est aujourd'hui relativement facile pour les concepteurs informatiques et les programmeurs d'essayer quelque chose sur les plateformes d'IA, il y a de temps en temps dans la pratique des algorithmes qui donnent des résultats très plausibles, mais pour lesquels, lorsqu'une erreur se produit, on ne sait pas pourquoi elle est apparue. "Théorie" signifie pour Niao He que les bases mathématiques et algorithmiques de l'IA sont suffisamment comprises pour qu'il soit possible d'expliquer à tout moment comment un algorithme fonctionne réellement et comment ses résultats sont obtenus. "Dans la compréhension théorique, il s'agit aussi et surtout de comprendre les limites fondamentales de ces problèmes et les limites fondamentales des algorithmes".

développer l'IA en fonction de l'homme, il faut penser de manière contrefactuelle, explique Niao He. Que se serait-il passé si j'avais pris une décision différente ou si quelqu'un d'un autre sexe ou d'un autre groupe ethnique avait décidé à ma place ? La diversité est importante pour la recherche en IA : "Lorsqu'il s'agit d'équité, de confiance et de collaboration avec l'IA, il est essentiel que différentes personnes apportent leurs perspectives au développement de l'IA. C'est pourquoi j'aimerais encourager toutes les étudiantes à participer à la recherche sur l'IA, afin que l'IA fonctionne à l'avenir de manière coopérative, éthique, équitable et digne de confiance."

Prof. Dr. Niao He lors de sa le?on inaugurale. Elle se tient à c?té du pupitre de présentation, vêtue d'un blazer beige et d'un t-shirt noir.
Lors de sa le?on inaugurale, Niao He a comparé l'état actuel de développement de l'intelligence artificielle à l'aube, lorsque le jour qui se lève promet de grandes choses et que nous sentons que beaucoup de travail nous attend encore. (Image : ETH Zurich / Département d'informatique)
JavaScript a été désactivé sur votre navigateur