Le droit à l’oubli, garanti par le RGPD, se complique face aux modèles d’IA qui utilisent d’énormes quantités de données pour s’entraîner. Supprimer des informations dans ces systèmes revient à modifier des réseaux neuronaux complexes, ce qui est techniquement difficile. De plus, il existe des enjeux éthiques et légaux autour de l’utilisation des données personnelles pour l’IA. Bien que des méthodes de désapprentissage soient explorées, elles restent imparfaites. L’enjeu est crucial dans un contexte où la protection des données et la transparence des systèmes d’IA sont de plus en plus prioritaires.
Pendant la phase dite « d’apprentissage », des images du jeu d’entraînement sont montrées au réseau de neurones, qui prédit un label pour chacune d’entre elles. On donne ensuite au réseau le vrai label qui était attendu. Le modèle peut alors calculer l’erreur qu’il a faite. C’est là que la magie va opérer. À partir de la seule information de l’erreur commise, le réseau va mettre à jour l’ensemble de ses poids pour tenter de la corriger. Cette modification utilise des règles de calcul simples à l’échelle d’un neurone, mais incompréhensible pour l’humain à l’échelle du réseau entier.