Quand les psychologues décryptent le raisonnement des intelligences artificielles

11 Juin 2024 | IA hebdo, Revue de Web

Les grands modèles de langage (LLM), comme ChatGPT d’OpenAI, présentent des capacités impressionnantes mais aussi des comportements difficiles à prédire, similaires à ceux du cerveau humain. Les recherches menées par une équipe spécialisée ont révélé des erreurs de raisonnement dans ces modèles, souvent dues à des biais cognitifs similaires à ceux des humains. Les tests ont montré que les versions plus anciennes des LLM avaient des performances limitées, tandis que les modèles plus récents comme GPT-4 surpassaient parfois les capacités humaines. Cependant, la variabilité des performances et les changements non documentés dans les modèles soulignent la nécessité de recherches sur des modèles ouverts et transparents pour garantir la reproductibilité et la compréhension des mécanismes sous-jacents.

Les modèles de langage sont des modèles d’intelligence artificielle qui sont capables de comprendre et de générer du langage humain. Schématiquement parlant, les modèles de langage sont capables de prédire, en fonction du contexte, les mots qui ont la plus grande probabilité de figurer dans une phrase.

C’est vraiment septembre (déjà)

C’est vraiment septembre (déjà)

Cet été 2024 a été particulièrement productif, marqué par la mise en ligne du site ainsi que par plusieurs expérimentations et découvertes autour des architectures techniques des médias sociaux et de l'intelligence artificielle. Après des années passées à m'occuper...

Hello world (again)

Hello world (again)

Suite à la déconvenue de Bornybuzz, sur laquelle je n'ai pas envie de m'étendre ici (je vous laisse regarder la vidéo), l'heure est venue pour moi de préparer un plan B. Depuis 2015, je travaille sur l'éducation aux médias et au numérique, et j'ai développé un...