Depuis son lancement fin novembre 2022, ChatGPT, le chatbot qui utilise l'intelligence artificielle (IA) pour répondre à des questions ou générer des textes à la demande, est devenu l'application internet à la croissance la plus rapide de l'histoire.
En deux mois seulement, elle a atteint les 100 millions d'utilisateurs actifs. Il a fallu neuf mois à l'application populaire TikTok pour franchir cette étape. Quant à Instagram, il lui a fallu deux ans et demi, selon les données de la société de veille technologique Sensor Town.
"Depuis 20 ans que nous suivons l'évolution de l'internet, nous ne nous souvenons pas d'une progression aussi rapide d'une application internet grand public", ont déclaré les analystes d'UBS, qui ont fait état de ce record en février.
La popularité massive de ChatGPT, développé par OpenAI, soutenu par Microsoft, a suscité toutes sortes de discussions et de spéculations sur l'impact que l'intelligence artificielle générative a déjà et aura dans notre avenir proche.
Il s'agit de la branche de l'IA consacrée à la génération de contenu original à partir de données existantes (généralement tirées de l'internet) en réponse aux instructions d'un utilisateur.
Les textes (depuis les essais, la poésie et les blagues jusqu'au code informatique) et les images (diagrammes, photos, œuvres d'art de tout style et autres) produits par des IA génératives telles que ChatGPT, DALL-E, Bard et AlphaCode - pour ne citer que quelques-unes des plus connues - sont, dans certains cas, tellement impossibles à distinguer du travail humain qu'ils ont déjà été utilisés par des milliers de personnes pour remplacer leur travail habituel.
Des étudiants qui les utilisent pour faire leurs devoirs aux politiciens qui les utilisent pour leurs discours - le représentant démocrate Jake Auchincloss a présenté la ressource au Congrès américain - en passant par les photographes qui inventent des instantanés de choses qui ne se sont pas produites (et gagnent même des prix pour cela, comme l'Allemand Boris Eldagsen, qui a remporté la première place au dernier Sony World Photography Award pour une image créée par l'intelligence artificielle).
Cette note aurait pu être écrite par une machine et vous ne l'auriez probablement pas remarqué.
Ce phénomène a entraîné une révolution dans le domaine des ressources humaines, des entreprises telles que le géant de la technologie IBM ayant annoncé qu'elles cesseraient d'embaucher des personnes pour pourvoir quelque 8 000 postes qui pourraient être confiés à l'IA.
Un rapport de la banque d'investissement Goldman Sachs a estimé fin mars que l'IA pourrait remplacer un quart des emplois occupés aujourd'hui par des humains, mais qu'elle créera aussi plus de productivité et de nouveaux emplois.
Si tous ces changements vous dépassent, préparez-vous à un fait encore plus déconcertant.
Malgré tous ses impacts, ce que nous vivons actuellement n'est que la première étape du développement de l'IA.
Selon les experts, ce qui pourrait arriver bientôt - la deuxième étape - sera bien plus révolutionnaire.
Et la troisième et dernière, qui pourrait survenir très bientôt, est si avancée qu'elle changera complètement le monde, même au prix de l'existence humaine.
Elle est ainsi appelée parce qu'elle se concentre sur une seule tâche, effectuant un travail répétitif dans un domaine prédéfini par ses créateurs.
Les systèmes ANI sont généralement formés à l'aide d'un vaste ensemble de données (provenant par exemple de l'internet) et peuvent prendre des décisions ou effectuer des actions sur la base de cette formation.
Un ANI peut égaler ou surpasser l'intelligence et l'efficacité humaines, mais uniquement dans le domaine spécifique dans lequel il opère.
Les programmes d'échecs qui utilisent l'IA en sont un exemple. Ils sont capables de battre le champion du monde dans cette discipline, mais ne peuvent pas effectuer d'autres tâches.
C'est pourquoi on l'appelle aussi "IA faible".
Tous les programmes et outils qui utilisent l'IA aujourd'hui, même les plus avancés et les plus complexes, sont des formes d'ANI. Et ces systèmes sont partout.
Les smartphones sont remplis d'applications qui utilisent cette technologie, des cartes GPS qui vous permettent de trouver votre chemin dans le monde ou de connaître la météo, aux programmes de musique et de vidéo qui connaissent vos goûts et vous font des recommandations.
Les assistants virtuels tels que Siri et Alexa sont également des formes d'ANI. Tout comme le moteur de recherche de Google et le robot qui nettoie votre maison.
Le monde des affaires utilise également beaucoup cette technologie. Elle est utilisée dans les ordinateurs internes des voitures, dans la fabrication de milliers de produits, dans le monde financier et même dans les hôpitaux, pour les diagnostics.
Des systèmes encore plus sophistiqués, tels que les voitures sans conducteur (ou véhicules autonomes) et le populaire ChatGPT, sont des formes d'ANI, car ils ne peuvent pas fonctionner en dehors de la plage prédéfinie par leurs programmeurs, et ne peuvent donc pas prendre de décisions par eux-mêmes.
Ils n'ont pas non plus de conscience de soi, une autre caractéristique de l'intelligence humaine.
Toutefois, certains experts estiment que les systèmes programmés pour apprendre automatiquement (apprentissage automatique), tels que ChatGPT ou AutoGPT (un "agent autonome" ou "agent intelligent" qui utilise les informations de ChatGPT pour effectuer certaines tâches secondaires de manière autonome), pourraient passer à l'étape suivante du développement.
La conviction que nous sommes sur le point d'atteindre ce niveau de développement est telle qu'en mars dernier, plus de 1 000 experts en technologie ont appelé les entreprises d'IA à cesser de former, pendant au moins six mois, des programmes plus puissants que GPT-4, la dernière version de ChatGPT.
"Les systèmes d'IA dotés d'une intelligence rivalisant avec celle de l'homme peuvent présenter des risques profonds pour la société et l'humanité", ont averti Steve Wozniak, cofondateur d'Apple, et Elon Musk, propriétaire de Tesla, SpaceX, Neuralink et Twitter (qui était cofondateur d'Open AI avant de démissionner du conseil d'administration en raison de désaccords avec la direction de l'entreprise), entre autres, dans une lettre ouverte.
Dans cette lettre, publiée par l'organisation à but non lucratif Future of Life Institute, les experts déclarent que si les entreprises n'acceptent pas rapidement de limiter leurs projets, "les gouvernements devraient intervenir et instituer un moratoire" afin que des mesures de sécurité solides puissent être conçues et mises en œuvre.
Bien que cela ne se soit pas produit pour le moment, le gouvernement américain a convoqué les propriétaires des principales entreprises d'IA - Alphabet, Anthropic, Microsoft et OpenAI - pour convenir de "nouvelles actions visant à promouvoir une innovation responsable dans le domaine de l'IA".
"L'IA est l'une des technologies les plus puissantes de notre époque, mais pour saisir les opportunités qu'elle offre, nous devons d'abord atténuer ses risques", a déclaré la Maison Blanche dans un communiqué le 4 mai.
Le Congrès américain a quant à lui convoqué le PDG d'OpenAI, Sam Altman, pour qu'il réponde à des questions sur le ChatGPT mardi.
Lors de l'audition au Sénat, M. Altman a déclaré qu'il était "crucial" que son secteur soit réglementé par le gouvernement, car l'IA devient "de plus en plus puissante".
Carlos Ignacio Gutiérrez, chercheur en politique publique au Future of Life Institute, a déclaré à BBC Mundo que l'un des grands défis de l'IA est qu'"il n'existe pas d'organe collégial d'experts décidant de la manière de la réglementer, comme c'est le cas, par exemple, avec le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC)".
Dans leur lettre, les experts exposent leurs principales préoccupations.
"Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux que nous, nous déjouer, nous rendre obsolètes et nous remplacer ?
"Devons-nous risquer de perdre le contrôle de notre civilisation ?
Cela nous amène à la troisième et dernière étape de l'IA.
"Les humains doivent étudier très longtemps pour devenir ingénieurs, infirmières ou avocats. L'avantage de l'AGI est qu'elle est immédiatement extensible", explique M. Gutiérrez.
Cela est dû à un processus appelé auto-amélioration récursive qui permet à une application d'IA de "s'améliorer continuellement, dans un délai que nous ne pourrions pas respecter".
Bien que la question de savoir si une machine peut réellement acquérir le type d'intelligence générale d'un être humain - en particulier en termes d'intelligence émotionnelle - suscite de nombreux débats, c'est l'une des choses qui inquiètent le plus ceux qui pensent que nous sommes sur le point d'atteindre l'AGI.
Récemment, celui que l'on appelle le "parrain de l'intelligence artificielle", Geoffrey Hinton, pionnier de la recherche sur les réseaux neuronaux et l'apprentissage profond qui permettent aux machines d'apprendre par l'expérience, tout comme les humains, a averti dans une interview accordée à la BBC que nous pourrions être proches de cette étape.
"Pour l'instant, les machines ne sont pas plus intelligentes que nous, d'après ce que je vois. Mais je pense qu'elles pourraient l'être bientôt", a déclaré cet homme de 75 ans, qui vient de prendre sa retraite de Google.
Au milieu se trouvent des personnes qui, comme M. Hinton, pensent que l'IA a un potentiel énorme pour l'humanité, mais considèrent que le rythme actuel de développement, sans réglementation ni limites claires, est "inquiétant".
Dans une déclaration envoyée au New York Times annonçant son départ de Google, M. Hinton a déclaré qu'il regrettait désormais le travail qu'il avait accompli parce qu'il craignait que de "mauvais acteurs" n'utilisent l'IA pour faire de "mauvaises choses".
Interrogé par la BBC, il a donné cet exemple de "scénario cauchemardesque" :
"Imaginez, par exemple, qu'un mauvais acteur comme [le président russe Vladimir] Poutine décide de donner aux robots la capacité de créer leurs propres sous-objectifs.
Les machines pourraient éventuellement "créer des sous-objectifs tels que : 'Je dois obtenir plus de pouvoir'", ce qui représenterait un "risque existentiel", a-t-il déclaré.
Dans le même temps, l'expert britanno-canadien a déclaré qu'à court terme, l'IA apportera bien plus d'avantages que de risques, et que "nous ne devrions donc pas cesser de la développer".
"La question est la suivante : maintenant que nous avons découvert qu'elle fonctionne mieux que ce que nous avions prévu il y a quelques années, que faisons-nous pour atténuer les risques à long terme de voir des choses plus intelligentes que nous prendre le dessus ?
M. Guitérrez convient qu'il est essentiel de créer un système de gouvernance de l'IA avant de développer une intelligence capable de prendre des décisions par elle-même.
"Si vous créez ces entités qui ont leur propre motivation, qu'est-ce que cela signifie lorsque nous ne contrôlons plus ces motivations ?
Selon lui, le danger n'est pas seulement qu'une AGI ou une ASI, qu'elle soit auto-motivée ou contrôlée par des personnes ayant de "mauvais objectifs", déclenche une guerre ou manipule le système financier, la production, l'infrastructure énergétique, les transports ou tout autre système aujourd'hui informatisé.
Une superintelligence pourrait nous dominer de manière beaucoup plus subtile, prévient-il.
"Imaginez un avenir où une entité possède tellement d'informations sur chaque personne de la planète et sur ses habitudes (grâce à nos recherches sur l'internet) qu'elle pourrait nous contrôler d'une manière dont nous ne nous rendrions même pas compte", déclare-t-il.
"Le pire scénario n'est pas qu'il y ait des guerres entre les humains et les robots. Le pire scénario est que nous ne nous rendions pas compte que nous sommes manipulés parce que nous partageons la planète avec une entité beaucoup plus intelligente que nous".