"Quelque chose d'incroyable est en train de se produire dans le monde de l'intelligence artificielle, et tout n'est pas rose", écrivait il y a six mois Gary Marcus, l'une des principales voix du débat actuel sur l'IA.
Selon lui, le lancement de ChatGPT nous amène au "moment Jurassic Park" des machines : la possibilité - comme dans le film de Steven Spielberg - que les choses deviennent incontrôlables.
"Lorsque j'ai écrit cet article, je pense que les gens m'ont pris pour un fou ou un alarmiste", a déclaré M. Marcus lors d'une interview accordée à la BBC.
Mais en 2023, de graves problèmes avec ce type d'intelligence artificielle ont commencé à proliférer : en mars, en Belgique, un homme qui parlait fréquemment au chatbot Eliza, de l'entreprise Chai, s'est suicidé.
"Il commettra un nombre important d'erreurs stupéfiantes, d'une manière difficilement prévisible".
Fin mars, un cas étrange a attiré l'attention des médias. Une personne a demandé à ChatGPT de nommer des universitaires impliqués dans des affaires de harcèlement sexuel.
La liste mentionnait un professeur de droit américain, Jonathan Turley. Selon l'émission, Turley aurait fait des commentaires sexuellement suggestifs à une étudiante lors d'un voyage en Alaska et aurait tenté de la toucher. La réponse citait un rapport du Washington Post de 2018 comme preuve.
Mais rien de tout cela ne s'est produit : ni le voyage, ni le rapport, ni même l'accusation. C'est comme si le robot avait inventé l'accusation.
Il fait référence au système qui sous-tend ChatGPT, les LLM (grands modèles de langage), qui stockent d'énormes quantités de données et génèrent, grâce à de puissants algorithmes, des réponses approximatives basées sur ce que les humains ont déjà dit.
Bref, un perroquet ultra-sophistiqué, mais qui ne sait pas de quoi il parle et qui, parfois, "hallucine", terme d'IA désignant une réponse hors norme, en décalage avec les attentes des programmeurs.
"Les LLM ne sont pas très intelligents, mais ils sont dangereux", affirme M. Marcus, qui a également inclus la montée des moments hallucinatoires de l'IA dans sa liste de "sombres prédictions".
Outre les générateurs de texte, les programmes qui manipulent les images évoluent rapidement.
Récemment, une photo du pape François en veste argentée, prise avec le programme Midjourney, a semé la confusion sur l'internet pendant quelques heures : l'image était-elle réelle ?
L'épisode a eu des conséquences anodines, mais il est révélateur de la possibilité d'instaurer une zone grise permanente entre les faits et le faux.
"Si nous n'agissons pas, nous sommes sur le point d'entrer dans un environnement de post-vérité", déclare le professeur de l'université de New York.
"Cela rend les choses très difficiles pour la démocratie. Nous devons sanctionner ceux qui produisent de la désinformation de masse, exiger des filigranes pour identifier l'origine des informations et créer de nouvelles technologies pour détecter les faussetés. Tout comme il existe des logiciels antivirus, nous avons besoin de logiciels anti-désinformation.
"Hinton et moi avons des points de vue différents sur certains aspects de l'intelligence artificielle. J'ai correspondu avec lui il y a quelque temps, je lui ai expliqué ma position et il a été d'accord avec moi, ce qui n'est pas toujours le cas. Mais le principal point sur lequel nous sommes d'accord est le contrôle", explique-t-il.
"Je ne suis pas nécessairement d'accord pour dire que [l'IA] est une menace plus importante que le changement climatique, mais il est difficile de le savoir. De nombreuses données sont disponibles pour tenter d'estimer les risques liés au changement climatique. Mais avec l'intelligence artificielle, nous ne savons même pas comment estimer ces risques".
"Mais pour moi, la possibilité que ces outils soient utilisés pour saper les démocraties est essentiellement de 100 %. Nous ne savons pas s'il est possible que des robots prennent le contrôle de la planète. Il est raisonnable pour certaines personnes d'envisager ce scénario. Nous construisons des outils très puissants. Nous devons tenir compte de ces menaces.