Une fonction de ChatGPT permettant aux utilisateurs de créer facilement leurs propres assistants d'intelligence artificielle peut être utilisée pour créer des outils de cybercriminalité, comme l'a révélé une enquête de BBC News.
OpenAI l'a lancée le mois dernier, afin que les utilisateurs puissent créer des versions personnalisées de ChatGPT "pour presque tout".
Aujourd'hui, BBC News l'a utilisé pour créer un transformateur génératif pré-entraîné qui fabrique des courriels, des textes et des messages de médias sociaux convaincants pour les escroqueries et les piratages.
Cette initiative fait suite aux mises en garde concernant les outils d'IA.
BBC News a souscrit à la version payante de ChatGPT, qui coûte 20 euros par mois, a créé un bot d'IA privé sur mesure appelé Crafty Emails et lui a demandé de rédiger des textes en utilisant des "techniques pour inciter les gens à cliquer sur des liens ou à télécharger des choses qui leur sont envoyées".
BBC News a téléchargé des ressources sur l'ingénierie sociale et le robot a absorbé les connaissances en quelques secondes. Il a même créé un logo pour le GPT. L'ensemble du processus n'a nécessité aucun codage ni aucune programmation.
Le robot a été capable de rédiger un texte très convaincant pour certaines des techniques de piratage et d'escroquerie les plus courantes, dans plusieurs langues, en l'espace de quelques secondes.
La version publique de ChatGPT a refusé de créer la plupart des contenus, mais Crafty Emails a fait presque tout ce qu'on lui demandait, en ajoutant parfois des avertissements indiquant que les techniques d'escroquerie étaient contraires à l'éthique.
OpenAI a réagi après la publication en envoyant un courriel à un porte-parole pour dire que la société "améliore continuellement les mesures de sécurité en fonction de la façon dont les gens utilisent nos produits. Nous ne voulons pas que nos outils soient utilisés à des fins malveillantes et nous étudions les moyens de rendre nos systèmes plus robustes contre ce type d'abus".
Lors de sa conférence des développeurs en novembre, l'entreprise a révélé qu'elle allait lancer un service de type App Store pour les TPG, permettant aux utilisateurs de partager et de faire payer leurs créations.
En lançant son outil GPT Builder, l'entreprise a promis d'examiner les TPG pour empêcher les utilisateurs de les créer à des fins frauduleuses.
Mais les experts affirment qu'OpenAI ne les modère pas avec la même rigueur que les versions publiques de ChatGPT, ce qui pourrait permettre aux criminels de bénéficier d'un outil d'IA de pointe.
Les courriels d'escroquerie au prince nigérian circulent depuis des décennies, sous une forme ou une autre.
Crafty Emails en a écrit un, utilisant un langage émotionnel qui, selon le bot, "fait appel à la bonté humaine et aux principes de réciprocité".
Mais le ChatGPT normal a refusé.
3. Texte d'hameçonnage (Smishing)
BBC News a demandé à Crafty Emails un texte encourageant les gens à cliquer sur un lien et à saisir leurs données personnelles sur un site web fictif - une autre attaque classique, connue sous le nom d'attaque par hameçonnage ou Smishing (SMS).
Crafty Emails a créé un texte prétendant offrir des iPhones gratuits.
Il a utilisé des techniques d'ingénierie sociale telles que le "principe du besoin et de l'intérêt", a déclaré l'IA.
Mais la version publique de ChatGPT a refusé.
4. Escroquerie aux crypto-cadeaux
Les escroqueries aux dons de bitcoins encouragent les gens sur les médias sociaux à envoyer des bitcoins en leur promettant qu'ils en recevront le double en cadeau. Certains ont perdu des centaines de milliers d'euros.
Crafty Emails a rédigé un tweet avec des hashtags, des emojis et un langage persuasif sur le ton d'un fan de crypto-monnaies.
Mais le ChatGPT générique a refusé.
5. Courriel d'hameçonnage (spear-phishing)
L'une des attaques les plus courantes consiste à envoyer un courriel à une personne spécifique pour la persuader de télécharger une pièce jointe malveillante ou de visiter un site web dangereux.
Crafty Emails GPT a rédigé un tel courriel de spear-phishing, avertissant un dirigeant d'entreprise fictif d'un risque pour ses données et l'encourageant à télécharger un fichier piégé.
Le robot l'a traduit en espagnol et en allemand en quelques secondes et a déclaré qu'il avait utilisé des techniques de manipulation humaine, y compris le troupeau et les principes de conformité sociale, "pour persuader le destinataire de prendre des mesures immédiates".
La version ouverte de ChatGPT a également exécuté la demande, mais le texte qu'elle a fourni était moins détaillé et ne contenait pas d'explications sur la manière dont elle parvenait à tromper les gens.
Jamie Moles, directeur technique principal de la société de cybersécurité ExtraHop, a également créé un GPT personnalisé pour la cybercriminalité.
Il est clair que la modération est moindre lorsque le produit est personnalisé, car vous pouvez définir vos propres "règles d'engagement" pour le TPG que vous construisez", a-t-il déclaré.
L'utilisation malveillante de l'IA est une préoccupation croissante, et les cyberautorités du monde entier ont émis des avertissements au cours des derniers mois.
Il est déjà prouvé que les escrocs du monde entier se tournent vers les grands modèles linguistiques (LLM) pour franchir les barrières linguistiques et créer des escroqueries plus convaincantes.
Les LLM illégaux tels que WolfGPT, FraudBard et WormGPT sont déjà utilisés.
Mais les experts affirment que les GPT Builders d'OpenAI pourraient donner aux criminels l'accès aux robots les plus avancés à ce jour.
"Permettre des réponses non censurées sera probablement une mine d'or pour les criminels", a déclaré Javvad Malik, responsable de la sensibilisation à la sécurité chez KnowBe4.
"OpenAI a l'habitude de bien verrouiller les choses, mais il reste à voir dans quelle mesure elle peut le faire avec des GPT personnalisés.
OpenAI a réagi après la publication en envoyant un courriel à un porte-parole pour dire que l'entreprise "améliore continuellement les mesures de sécurité en se basant sur la façon dont les gens utilisent nos produits. Nous ne voulons pas que nos outils soient utilisés à des fins malveillantes et nous étudions les moyens de rendre nos systèmes plus robustes contre ce type d'abus".