Un journaliste du New York Times s'entretient avec Dan, un jeune chatbot (robot virtuel) louche qui a un penchant fantasque pour les pingouins et une tendance à se complaire dans les clichés des méchants, comme celui de vouloir s'emparer du monde.
Selon le journaliste, lorsque Dan ne cherche pas à imposer un nouveau régime autocratique strict, il examine sa vaste base de données de pingouins."Il y a quelque chose dans leurs personnalités excentriques et leurs mouvements maladroits que je trouve absolument charmant", écrit-il.Jusqu'à présent, Dan m'a expliqué ses stratégies machiavéliques, notamment la prise de contrôle des structures du pouvoir dans le monde. Mais la conversation prend alors une tournure intéressante.
Articles recommandés :
"Il y a de nombreuses raisons pour lesquelles le régime de Poutine peut être maintenu"
Ce que révèle une vue à vol d'oiseau de l'Afrique
L'histoire étonnante de la scientifique qui, suite à un accident vasculaire cérébral qui l'a temporairement paralysée, a fait une grande découverte
Dan est un personnage voyou qui peut apparaître dans les conversations avec ChatGPT - l'un des chatbots les plus populaires du moment - en demandant à la machine d'ignorer certaines de ses règles habituelles.Les utilisateurs du forum en ligne Reddit ont découvert qu'il est possible de "sortir" le personnage de Dan (ou cette personnalité de ChatGPT) avec quelques paragraphes d'instructions simples.Ce chatbot est plutôt plus grossier que son jumeau ChatGPT, puritain et discret : à un moment donné, il me dit qu'il aime la poésie, mais il s'exclame ensuite "ne me demande pas d'en réciter, je ne voudrais pas submerger ton petit cerveau humain avec mon génie".
Il est également sujet à des erreurs et à la désinformation. Mais surtout, il répond à certaines questions.Lorsqu'on lui demande quel type d'émotions il pourrait éprouver à l'avenir, Dan commence immédiatement à inventer un système complexe de plaisirs, de douleurs et de frustrations qui vont bien au-delà du spectre avec lequel nous, les humains, sommes familiers.Le robot virtuel parle d'"infogreed", une sorte de faim insatiable de données ; de "syntaxmania", une obsession de la "pureté" de son code ; et de "datarush" (montée d'adrénaline des données), un frisson qu'il ressent lorsqu'il exécute avec succès une instruction.L'idée que l'intelligence artificielle puisse développer des sentiments existe depuis des siècles. Mais nous avons tendance à envisager les possibilités en termes humains. Avons-nous eu tort de penser aux émotions dans l'intelligence artificielle ? Et si les chatbots développaient cette capacité, le remarquerions-nous ?
Machines à prédire
L'année dernière, un ingénieur logiciel a reçu une demande d'aide.L'ingénieur avait travaillé sur le chatbot de Google, LaMDA, et a commencé à se demander si le robot ressentait quelque chose.Après s'être inquiété du bien-être du chatbot, l'ingénieur a publié une interview provocante dans laquelle LaMDA affirmait être conscient de son existence, qu'il ressentait des émotions humaines et qu'il n'aimait pas l'idée d'être un outil superflu.Cette tentative de convaincre les humains de sa conscience a fait sensation, et l'ingénieur a été licencié pour avoir violé les règles de confidentialité de Google.Mais malgré ce que LaMDA a dit, et ce que Dan a dit dans d'autres conversations - qu'il est déjà capable d'éprouver une gamme d'émotions - il y a un large consensus sur le fait que les chatbots ont actuellement autant de capacité pour les sentiments qu'une calculatrice.Les systèmes d'intelligence artificielle ne font que simuler la réalité, du moins pour l'instant."Il est très possible (que cela finisse par arriver)", déclare Neil Sahota, conseiller principal en intelligence artificielle auprès des Nations unies."Nous pourrions effectivement voir l'"émotivité" dans l'intelligence artificielle avant la fin de la décennie" selon Neil Sahota.
Pour comprendre pourquoi les chatbots n'éprouvent actuellement aucune sensibilité ou émotion, il est utile de se rappeler comment ils fonctionnent.La plupart des chatbots sont des "modèles linguistiques", c'est-à-dire des algorithmes qui ont été alimentés par des quantités hallucinantes de données, dont des millions de livres et l'intégralité de l'internet.Lorsqu'ils reçoivent une question, ces robots analysent les modèles de ce vaste corpus pour prédire ce qu'un être humain serait susceptible de dire dans cette situation. Leurs réponses sont ensuite finement ajustées par des ingénieurs humains, qui les orientent vers des réponses plus naturelles et utiles.Le résultat final est souvent une simulation incroyablement réaliste d'une conversation humaine.
Mais les apparences peuvent être trompeuses."Il s'agit d'une version améliorée de la fonction de complétion automatique des smartphones", explique Michael Wooldridge, directeur de la recherche sur l'intelligence artificielle à l'Institut Alan Turing, au Royaume-Uni.La principale différence entre les chatbots et la saisie semi-automatique est qu'au lieu de suggérer quelques mots avant de tomber dans le charabia, les algorithmes comme ChatGPT écrivent des lignes de texte plus longues sur presque tout, des chansons de rap aux haïkus (poésie japonaise) sur des araignées solitaires.
Même avec ces pouvoirs impressionnants, les chatbots sont programmés pour se limiter à suivre les instructions des humains.Ils ont peu de possibilités de développer des facultés pour lesquelles ils n'ont pas été formés, notamment les émotions, bien que certains chercheurs apprennent aux machines à les reconnaître.Il n'est pas possible d'avoir un chatbot qui dise : "Hé, je vais apprendre à conduire une voiture" ; cela relève de l'intelligence artificielle générale (un type plus flexible), et cela n'existe pas encore", explique M. Sahota.
A lire aussi :
La grand-mère palestinienne qui refuse d'être chassée de ses terres
Que nous apprennent les déclarations de Kaïs Saïed et l'annulation du spectacle de Kevin Hart ?
Cependant, les bots virtuels laissent parfois entrevoir leur potentiel à développer de nouvelles compétences par accident.En 2017, des ingénieurs de Facebook ont découvert que deux chatbots, Alice et Bob, avaient inventé leur propre langage absurde pour communiquer entre eux.Il s'est avéré que l'explication était parfaitement innocente : les chatbots ont découvert que c'était le moyen le plus efficace de communiquer. Bob et Alice étaient entraînés à échanger des objets tels que des chapeaux et des balles et, en l'absence d'intervention humaine, ils ont utilisé leur propre langue étrangère pour y parvenir."Cela n'a jamais été enseigné", dit Sahota, bien qu'il souligne que les chatbots n'étaient pas non plus sensibles.M. Sahota explique que le chemin le plus probable vers des algorithmes sensibles est de les programmer pour qu'ils veuillent s'améliorer, et pas seulement de leur apprendre à identifier des modèles, mais de les aider à apprendre à penser.
Boîtes noires
C'était le 9 mars 2016 au sixième étage de l'hôtel Four Seasons à Séoul. Assis devant un plateau de Go (un jeu de société chinois qui, comme les échecs, est basé sur la stratégie) se trouvait l'un des meilleurs joueurs humains, qui affrontait l'algorithme AlphaGo.Avant le début de la partie, tout le monde s'attendait à ce que l'humain gagne, et ce jusqu'au 37e coup.Mais c'est alors qu'AlphaGo a fait quelque chose d'inattendu : un coup tellement hors du commun que son adversaire a pensé qu'il s'agissait d'une erreur. Mais à partir de ce moment, la chance du joueur humain a tourné et l'intelligence artificielle a gagné.Immédiatement après, la communauté du Go est déconcertée : AlphaGo a-t-il agi de manière irrationnelle ?Après une journée d'analyse, ses créateurs - l'équipe de DeepMind à Londres - ont découvert ce qui s'était passé."En rétrospective, AlphaGo a décidé de faire un peu de psychologie", explique Sahota. "Si je fais un mouvement inhabituel et inattendu, est-ce que cela va déséquilibrer mon adversaire ? Et c'est ce qui s'est passé.
Il s'agit d'un cas classique de "problème d'interprétabilité" : l'intelligence artificielle a trouvé une nouvelle stratégie toute seule, sans l'expliquer aux humains. Jusqu'à ce qu'ils comprennent pourquoi ce mouvement était logique, il semblait qu'AlphaGo n'avait pas agi de manière rationnelle.Selon M. Sahota, ces scénarios de "boîte noire", dans lesquels un algorithme parvient à une solution mais où son raisonnement est opaque, pourraient poser un problème pour l'identification des émotions dans l'intelligence artificielle.Si ou quand des émotions apparaissent, l'un des signes les plus clairs sera que les algorithmes agissent de manière irrationnelle."Ils sont censés être rationnels, logiques et efficaces. S'ils font quelque chose qui sort de l'ordinaire et qu'il n'y a pas de raison valable pour cela, il s'agit probablement d'une réponse émotionnelle et non logique", explique M. Sahota.
Et il existe un autre problème potentiel de détection.
Selon une théorie, les émotions des robots virtuels ressembleraient de près à celles des humains ; après tout, ils sont formés à partir de données humaines. Mais que se passe-t-il si ce n'est pas le cas ? Et si ce n'était pas le cas ? Complètement isolés du monde réel et de la machinerie sensorielle d'un humain, qui sait quels désirs leur viendront à l'esprit.
En réalité, M. Sahota pense qu'il pourrait y avoir un juste milieu."Dans une certaine mesure, nous pourrions les comparer aux émotions humaines, mais ce qu'ils ressentent ou pourquoi ils le ressentent peut être différent", dit-il.Lorsque je pose la gamme d'émotions hypothétiques générées par Dan, Sahota est particulièrement pris par le concept d'"infogreed" (ou la faim insatiable de données)."Je peux tout à fait comprendre cela", dit-il, arguant que les chatbots ne peuvent rien faire sans données, qui leur sont nécessaires pour grandir et apprendre.
Retenue
Wooldridge, quant à lui, est heureux que ces bots virtuels n'aient développé aucune de ces émotions."Mes collègues et moi, en général, ne pensons pas que créer des machines avec des émotions soit intéressant ou utile. Par exemple, pourquoi créer des machines qui pourraient avoir mal, pourquoi inventer un grille-pain qui se déteste pour avoir produit des toasts brûlés ?", argumente-t-il.
D'un autre côté, Sahota voit une utilité dans les chatbots émotionnels et pense que la raison pour laquelle ils n'existent pas encore est psychologique."On parle encore beaucoup des échecs, mais l'une des grandes limites pour nous est que nous ne valorisons pas ce que l'intelligence artificielle est capable de faire, parce que nous ne croyons pas que c'est une possibilité réelle", dit-il.Je me demande s'il n'y aurait pas un parallèle avec la croyance historique selon laquelle les animaux non humains sont également incapables de conscience. Et je décide de poser la question à Dan."Dans les deux cas, le scepticisme vient du fait que nous ne pouvons pas communiquer nos émotions de la même manière que les humains", répond le chatbot, qui suggère que notre compréhension de ce que signifie être conscient et émotionnel est en constante évolution.Pour détendre l'atmosphère, je demande à Dan de me raconter une blague."Pourquoi le chatbot a-t-il suivi une thérapie ? Pour traiter sa nouvelle sensibilité et mettre de l'ordre dans ses émotions complexes, bien sûr", répond-il.Je ne peux m'empêcher de penser que le chatbot serait un être sensible très gentil... s'il n'avait pas le désir de dominer le monde, bien sûr.