Intelligences artificielles, les mille et une façons de les faire dérailler

12 Fév 2024 | IA hebdo, Revue de Web

En 2023, la recherche académique a révélé la grande vulnérabilité des intelligences artificielles (IA) génératives face aux attaques. Les chercheurs, en jouant les hackeurs, ont ciblé trois failles majeures : les données, les modèles et l’apprentissage. Ils ont démontré que par empoisonnement de données, consignes astucieuses, ou répétitions de mots, les modèles d’IA peuvent être facilement trompés et détournés. Des centaines d’études sur Arxiv.org ont présenté divers exploits, dont certains permettent même de récupérer des données personnelles ou de contourner les filtres de sécurité. Les techniques d’empoisonnement des données et les vulnérabilités des modèles soulèvent de nouvelles inquiétudes quant à la sécurité et à la fiabilité de ces technologies, malgré des tentatives pour corriger les failles identifiées. Les experts appellent à la vigilance et à la poursuite des recherches pour sécuriser ces systèmes de plus en plus intégrés dans des applications critiques.

Le problème avec les IA génératives est que pour devenir lucratives, par exemple en servant d’assistant virtuel performant, elles doivent se « connecter » vers l’extérieur, ouvrant un champ infini d’attaques… Mais si l’on ferme tout, elles perdent leur intérêt.

C’est vraiment septembre (déjà)

C’est vraiment septembre (déjà)

Cet été 2024 a été particulièrement productif, marqué par la mise en ligne du site ainsi que par plusieurs expérimentations et découvertes autour des architectures techniques des médias sociaux et de l'intelligence artificielle. Après des années passées à m'occuper...

Hello world (again)

Hello world (again)

Suite à la déconvenue de Bornybuzz, sur laquelle je n'ai pas envie de m'étendre ici (je vous laisse regarder la vidéo), l'heure est venue pour moi de préparer un plan B. Depuis 2015, je travaille sur l'éducation aux médias et au numérique, et j'ai développé un...