Nous avons d'abord appris qu'un système d'intelligence artificielle "est devenu conscient et ressent", selon un ingénieur de Google.
Puis des images de DALL- E sont devenues virales et le ChatGPT nous a divertis. Puis sont venues les mises en garde, les craintes, les appels à la réglementation...Et les doutes…
Il y a quelques jours, BBC Mundo vous a donc demandé ce que vous vouliez savoir sur l'intelligence artificielle (IA), a compilé vos doutes et a consulté une experte qui travaille dans le domaine de l'IA depuis plus de 30 ans.
Il s'agit d'Amparo Alonso Betanzos, professeur d'informatique et d'intelligence artificielle à l'université de La Corogne (Espagne) et assistante du recteur pour les questions d'IA.
Elle a également été présidente de l'Association espagnole d'intelligence artificielle (AEPIA).
Voici ses éclaircissements.
1) Comment fonctionne l'intelligence artificielle et à quoi ressemble-t-elle ?
C'est compliqué à dire car il y a de nombreux sous-domaines, mais il y a fondamentalement deux façons d'aborder l'intelligence artificielle. L'une est symbolique, l'ancienne IA, où nous obtenons les connaissances d'experts dans le domaine, elle est beaucoup plus transparente mais elle n'est pas extensible.
L'autre, l'IA dont nous disposons aujourd'hui, est axée sur les données. Pour obtenir des connaissances, il suffit d'alimenter le système avec des données provenant d'un domaine donné, le système apprend à partir de ces données et extrait des modèles.
Il est capable de généraliser, de prédire, etc. dans de nombreux domaines, qu'il s'agisse du langage naturel, de la vision artificielle ou de l'apprentissage automatique.
Il existe des modèles où le processus se fait par raisonnement basé sur l'apprentissage profond avec des réseaux neuronaux à plusieurs couches qui finissent par apprendre ces données.
Mais il existe d'autres modèles tels que le raisonnement par renforcement ou d'autres types qui peuvent être utilisés pour apprendre et dériver des connaissances pour l'IA.
2. L'IA est "alimentée" par des données - d'où viennent ces bases de données ?
Cela dépend beaucoup du système utilisé. S'il s'agit d'un système expert pour les modèles médicaux, ceux-ci sont extraits de grandes bases de données cliniques qui sont référencées par certains types de maladies ou certains types de patients.
S'il s'agit de données sur la circulation, on utilise les caméras ou les capteurs de circulation disponibles.
Aujourd'hui, le processus de numérisation dans lequel nous nous trouvons est si vaste qu'il existe des capteurs capables d'extraire des données de pratiquement tous les processus naturels ou industriels auxquels nous pouvons penser.
Pratiquement toutes les expériences auxquelles vous pouvez penser sont numériques : vos voyages, vos dossiers médicaux, vos préférences....
Par exemple, lorsque vous vous asseyez devant la télévision et qu'elle vous recommande quoi regarder, elle se base sur ce que vous avez déjà fait sur cette plateforme.
Tout cela est parfois alimenté par des algorithmes d'IA.
3) À quoi ressemble l'IA ?
Nombreux sont ceux qui imaginent un gros ordinateur ou une machine T100 de type Terminator.
Non, ce n'est pas le cas. À moins que vos programmes d'IA ne soient intégrés dans un robot d'apparence anthropomorphique.
Il peut s'agir d'un robot aspirateur qui fait le tour de la maison ou qui a une forme humanoïde, mais vous pouvez aussi simplement allumer votre ordinateur et disposer d'un logiciel qui vous écoute, ou d'un programme sur votre téléphone portable qui détecte votre empreinte digitale.
Il est impossible de dire combien il y en a. Il existe de nombreux systèmes et ils sont utilisés pour des choses très différentes, qu'il s'agisse d'une télévision qui recommande ce qu'il faut regarder ou d'une application qui prédit si vos vignobles seront atteints d'une maladie. C'est très transversal. Ils sont utilisés dans tous les domaines possibles et imaginables.
4) Quel est l'impact de l'IA sur notre vie quotidienne, sur l'emploi ?
Nous utilisons souvent l'intelligence artificielle sans même nous en rendre compte.
À l'avenir, nous aurons tendance à avoir plus d'IA parce qu'elle est mise en œuvre dans de plus en plus de domaines. En ce qui concerne l'emploi, même avant la pandémie, nous avons vu comment la situation évoluait.
Il y a beaucoup plus d'emplois touchés par l'automatisation, et pas seulement par l'IA. Nous le voyons dans les supermarchés, avec de plus en plus de machines à la place des caissiers, par exemple.
Cela va changer notre façon de travailler, surtout en ce qui concerne les tâches automatisées, et nous devrons vivre avec le fait que certaines de nos tâches routinières seront effectuées par des machines. Je vous donne l'exemple des médecins, qui travaillaient avec des instruments il y a 50 ans, et qui ont aujourd'hui beaucoup plus de machines à leur disposition.
Il est clair que cela affectera l'emploi et l'économie, et c'est une chose dont les gouvernements doivent se préoccuper.
Nous devons en être conscients, sinon cela peut créer d'énormes disparités.
Et oui, certains emplois seront détruits, mais d'autres seront créés. Nous lisons beaucoup ces derniers temps, du moins c'est ce que je perçois, que ce phénomène est en général assez catastrophique.
Cela crée une certaine panique qui, je pense, doit être gérée avec précaution. Nous nous concentrons souvent sur l'aspect le plus tragique, mais l'IA est un outil qui a beaucoup de bons côtés s'il est utilisé de la bonne manière.
Par exemple, ces dernières années, nous avons constaté qu'elle pouvait être utilisée dans le cadre d'une médecine beaucoup plus préventive.
Elle peut nous aider dans l'apprentissage, nous pouvons être beaucoup plus sélectifs avec nos étudiants et adapter notre enseignement, être en mesure de prédire les maladies du bétail, lutter contre le changement climatique, rendre les choses plus durables ou mieux gérer les stocks dans votre magasin.
Il existe de nombreux aspects positifs dont nous devons apprendre à tirer parti et nous protéger de ceux qui peuvent nous nuire.
5) Quels sont les dangers de l'IA ?
Les dangers, par exemple, sont que le système se comporte de manière inappropriée et que la personne ne le détecte pas, disons que sa supervision n'est pas aussi stricte qu'elle pourrait l'être. Mais il s'agit là d'un défaut humain dont nous ne sommes pas à l'abri, même avec l'IA.
C'est aussi une profession qui est encore très masculine et il est important que nous réalisions qu'une partie de l'avenir sera conçue avec la technologie.
Il est important de savoir comment nous y parvenons et à quoi nous voulons que l'avenir ressemble, car la conception de ces outils exige que nous soyons conscients des préjugés et nécessite la participation de tous.
Mais je pense qu'il aide les gens en leur donnant les moyens de prendre des décisions. Imaginez que vous êtes médecin et que vous avez beaucoup de symptômes et de doutes.
Vous interrogez un collègue, en l'occurrence une IA, qui réduit votre choix. Elle vous aide, mais c'est vous qui prenez la décision finale.
Tout comme l'algorithme d'une plateforme peut vous dire ce qu'il faut voir, mais c'est vous qui prenez la décision finale, vous ne laissez pas la machine décider pour vous.
Il est vrai que l'IA est un domaine dans lequel nous faisons beaucoup de progrès et qu'il est important de réglementer.
6) Est-il possible de réguler ou est-ce que c'est comme mettre des barrières sur le terrain ?
Nous avons déjà vu ce qui se passe avec Internet et le "deep web", par exemple.
L'Union européenne s'en préoccupe depuis longtemps. Nous avançons lentement, mais il y a une proposition.
Elle a commencé à parler de cette question en 2018, lorsque le groupe d'experts de haut niveau sur l'intelligence artificielle a été créé et a produit ces lignes directrices pour l'intelligence artificielle et l'intelligence de confiance.
Il y est déjà question de la supervision humaine de l'IA et d'aspects tels que la durabilité, l'absence de préjugés ou la sécurité.
Par exemple, la supervision humaine est l'un des points fondamentaux envisagés dans les réglementations européennes, c'est-à-dire que l'application de tout système d'intelligence artificielle aura toujours un superviseur humain dans l'ensemble du processus d'initiation de l'opération, dans la collecte des données, dans les secteurs qui sous-tendent son application.
Dans l'UE, nous avons été des pionniers et nous constatons aujourd'hui que des entreprises, pour la plupart extérieures à l'UE, comme aux États-Unis, exercent une grande influence et insistent sur la nécessité de cette réglementation.
C'est quelque chose qui doit être fait au niveau mondial, et nous y travaillons. L'important est de faire le premier pas. Peut-on tout réglementer ? La réponse est complexe parce que l'IA est complexe et qu'il est clair que la sécurité zéro n'existe pas, ni ici ni ailleurs. Par exemple, on réglemente, on fait le code de la route et cela n'empêche pas les accidents.
Une réglementation globale serait toujours souhaitable, mais elle est difficile à mettre en place. Il suffit de regarder le protocole de Kyoto... Tous les pays ne le signent pas et il n'y a aucun moyen de les y obliger. Outre l'Union européenne, il n'est pas facile de convaincre les autres grands centres du monde de l'IA, comme la Chine et les États-Unis, de la nécessité d'une réglementation.
7, Dernièrement, nous avons vu des titres et des experts affirmer que l'IA pourrait conduire l'humanité à l'extinction ? Est-ce vraiment le cas ?Il est difficile de dire jusqu'où ira l'intelligence artificielle, mais l'être humain doit toujours avoir un moyen de perturber, d'arrêter les macines.
Ce sont des personnes qui les conçoivent. Tout comme ce sont des personnes qui travaillent sur l'énergie nucléaire. Je pense donc qu'il est important de détecter les problèmes et de mettre en place des normes de sécurité et des mesures d'application.
Mais je pense qu'il en va de l'IA comme des voitures lorsqu'elles sont apparues. Au début, on pensait qu'elles seraient très dangereuses, qu'elles pourraient tuer des gens et que les vitesses qu'elles atteindraient pourraient dénaturer nos protéines. Aujourd'hui, nous savons que ce n'est pas le cas et qu'il s'agit d'une technologie que nous contrôlons, que nous réglementons, etc.
Peut-elle dépasser l'intelligence humaine et devenir consciente ?Presque tous les systèmes d'IA dépassent notre intelligence, mais seulement dans un certain domaine.
La plupart des IA dont nous disposons sont des niches étroites : elles sont capables d'un très haut niveau d'intelligence dans un domaine très spécifique. Par exemple, la machine AlphaGo (à qui l'on a appris à jouer au go, un jeu de société) peut battre le champion du monde de go, mais si vous voulez qu'elle joue aux échecs, vous devez lui apprendre, elle ne peut pas le faire seule.
Les médecins peuvent être excellents pour diagnostiquer un type de cancer, mais ils ne sont pas bons en tant que médecins généralistes parce que les connaissances nécessaires sont plus vastes. Et à propos de la conscience... On peut, entre guillemets, la modéliser. Il existe des robots qui peuvent modéliser des sentiments et sembler avoir une réelle conscience, mais nous ne savons même pas comment certains processus de la conscience se produisent chez les humains, c'est donc très complexe et vaste.
Même si nous voyons des outils comme les chatbots, qui, parce qu'ils sont des outils linguistiques, semblent plus transversaux, ces machines sont en fait capables de prédire le mot suivant dans un texte. C'est un moteur de recherche très sophistiqué, mais il n'est pas capable de raisonner en profondeur parce qu'il n'est pas conscient. C'est comme si vous aviez une sorte de perroquet dressé très intelligent.