En 2023, la recherche académique a révélé la grande vulnérabilité des intelligences artificielles (IA) génératives face aux attaques. Les chercheurs, en jouant les hackeurs, ont ciblé trois failles majeures : les données, les modèles et l’apprentissage. Ils ont démontré que par empoisonnement de données, consignes astucieuses, ou répétitions de mots, les modèles d’IA peuvent être facilement trompés et détournés. Des centaines d’études sur Arxiv.org ont présenté divers exploits, dont certains permettent même de récupérer des données personnelles ou de contourner les filtres de sécurité. Les techniques d’empoisonnement des données et les vulnérabilités des modèles soulèvent de nouvelles inquiétudes quant à la sécurité et à la fiabilité de ces technologies, malgré des tentatives pour corriger les failles identifiées. Les experts appellent à la vigilance et à la poursuite des recherches pour sécuriser ces systèmes de plus en plus intégrés dans des applications critiques.
Le problème avec les IA génératives est que pour devenir lucratives, par exemple en servant d’assistant virtuel performant, elles doivent se « connecter » vers l’extérieur, ouvrant un champ infini d’attaques… Mais si l’on ferme tout, elles perdent leur intérêt.