Quelle est la mystérieuse "boîte noire" de l'intelligence artificielle qui déconcerte les experts ?

Quelle est la mystérieuse "boîte noire" de l'intelligence artificielle qui déconcerte les experts ?

Thu, 27 Apr 2023 Source: www.bbc.com

Les développeurs d'intelligence artificielle (IA) de Google sont récemment tombés sur la mystérieuse "boîte noire".

Les ingénieurs travaillaient sur un logiciel d'IA qui, de manière inattendue, a acquis la capacité de comprendre une nouvelle langue.

"Nous avons découvert qu'avec très peu d'invites en bengali, il peut maintenant traduire tout le bengali", a récemment déclaré James Maneka, responsable de la division IA de Google, à l'émission 60 Minutes de la chaîne CBS.

Sundar Pichai, PDG de Google, a déclaré que cette capacité des programmes d'IA à générer des compétences ou à fournir des réponses de manière inattendue est ce que les experts appellent la "boîte noire".

"On ne comprend pas très bien. On ne peut pas dire pourquoi [le robot] a dit ceci ou pourquoi il s'est trompé sur tel ou tel point. Nous avons quelques idées et notre capacité à comprendre s'améliore avec le temps. Mais c'est là où nous en sommes pour l'instant", a-t-il déclaré.

Le développement de l'intelligence artificielle s'est accéléré ces dernières années. Les grandes entreprises technologiques investissent des sommes considérables pour créer des chatbots tels que Bard ou OpenAi de Google et ChatGPT de Microsoft. Plus récemment, le milliardaire Elon Musk a annoncé qu'il se lançait dans la course.

Dans le même temps, les experts en IA ont souligné qu'il peut y avoir des risques si la technologie n'est pas contrôlée par ses développeurs, comme l'acquisition par ces derniers de compétences pour lesquelles ils n'ont pas été formés.

C'est dans ce dernier scénario que se situe la boîte noire.

La boîte blanche

L'idée de la boîte noire est à l'opposé de ce que les experts en IA appellent la boîte blanche.

Ian Hogarth, cofondateur de l'entreprise technologique Plural et auteur du livre The Status of AI Reports, explique à la BBC que lorsque les développeurs de logiciels créent un programme de manière "traditionnelle", les lignes de code qu'ils introduisent se reflètent clairement dans le résultat produit par le logiciel.

"Les gens décrivent parfois le logiciel comme une boîte blanche", explique-t-il.

"Mais dans le domaine de l'IA, les systèmes sont vraiment très différents. Ils sont plus proches d'une boîte noire à bien des égards, car vous ne comprenez pas vraiment ce qui se passe à l'intérieur", ajoute-t-il.

Et les programmeurs ne s'attendent pas à ce qu'ils produisent des résultats aussi créatifs.

"J'aime à penser que nous les cultivons. C'est la meilleure idée que j'ai entendue sur la manière dont nous construisons ces systèmes aujourd'hui. Et ce qui est difficile, c'est qu'au fur et à mesure que nous les développons, leurs capacités progressent à pas de géant", explique-t-il.

Contrairement à la programmation logicielle plus traditionnelle, qui repose sur la mise en œuvre d'instructions pour obtenir un résultat, dans le développement de l'IA, les ingénieurs travaillent à l'élaboration d'un système qui imite les "réseaux neuronaux" de l'intelligence humaine.

Cela implique un grand nombre de processeurs interconnectés capables de traiter de grandes quantités de données, de détecter des modèles parmi des millions de variables à l'aide de l'apprentissage automatique et, surtout, de s'auto-adapter en fonction de ce qu'ils font.

David Stern, directeur de la recherche quantitative chez G-Research, une entreprise technologique qui utilise l'apprentissage automatique pour prédire les prix sur les marchés financiers, prévient que "les progrès les plus rapides de la recherche sur l'IA au cours des dernières années ont impliqué une approche de la boîte noire de plus en plus axée sur les données".

"Dans l'approche des réseaux neuronaux qui est actuellement en vogue, cette procédure de formation détermine la configuration de millions de paramètres internes qui interagissent de manière complexe et très difficile à expliquer et à rétroconcevoir", a-t-il déclaré à la BBC.

Une autre tendance est l'"apprentissage par renforcement profond" dans lequel un "concepteur spécifie simplement les objectifs comportementaux du système et celui-ci apprend automatiquement en interagissant directement avec l'environnement", ajoute-t-il.

"Il en résulte un système encore plus difficile à comprendre.

Faut-il s'inquiéter ?

Ian Hogarth note que si les nouveaux chatbots tels que Bard et ChatGPT semblent être des technologies très récentes, ils sont en fait le produit d'une décennie de recherche et de développement.

"Si l'on remonte à 2012 et que l'on compare les systèmes que nous construisions à l'époque et ceux que nous construisons aujourd'hui, on constate que nous avons très régulièrement augmenté la quantité de données et la puissance de calcul dans le développement des modèles d'IA", a-t-il déclaré à la BBC.

"Nous avons augmenté la puissance de calcul consommée par ces modèles d'environ 100 millions au cours de la dernière décennie. Ainsi, bien qu'en pratique le ChatGPT semble avoir surgi de nulle part pour la plupart des gens, il s'agit d'une tendance de très longue date qui se poursuivra".

Les nouvelles capacités des robots qui ont été récemment dévoilées ont soulevé des questions sur les différentes façons dont ils influenceront la société, qu'il s'agisse de l'impact sur le marché du travail, du contrôle des processus de sécurité publique ou de l'armée.

Dans l'émission 60 Minutes, le PDG de Google a été interrogé sur le fait que les ingénieurs ne comprennent pas totalement comment les choses se passent dans la boîte noire, mais que des chatbots comme Bard fonctionnent déjà.

"Permettez-moi de m'exprimer ainsi : je ne pense pas non plus que nous comprenions parfaitement comment fonctionne l'esprit humain", a répondu Sundar Pichai, qui voit dans l'arrivée progressive de l'IA dans la société une manière de s'y habituer.

"Je pense que le développement de celle-ci doit inclure non seulement des ingénieurs, mais aussi des spécialistes des sciences sociales, des éthiciens, des philosophes, etc. Et nous devons être très réfléchis. Ce sont des choses que la société doit comprendre au fur et à mesure que nous avançons. Ce n'est pas à une entreprise d'en décider", a-t-il déclaré à 60 Minutes.

Ian Hogarth pense également que l'IA finira par toucher la vie des gens et qu'un dialogue ouvert sur ses impacts est nécessaire.

"Je pense qu'elle a un potentiel remarquable pour transformer tous les aspects de notre vie. D'une certaine manière, c'est peut-être la technologie la plus puissante aujourd'hui. L'essentiel est que nous ayons un débat beaucoup plus public sur la vitesse à laquelle ces systèmes progressent et sur la différence qu'ils présentent par rapport aux générations précédentes de logiciels", conclut-il.

Source: www.bbc.com