OpenAI a récemment amélioré son chatbot pour qu’il puisse tenir des conversations fluides à l’oral et « lire » les émotions des utilisateurs. Cette avancée intervient alors que l’usage de l’IA à des fins thérapeutiques se répand, soulevant des inquiétudes chez les professionnels de santé. Bien que des chatbots, comme ceux de Character.ai, soient loués pour leur soutien psychologique, des risques existent, comme l’effet Eliza, où les utilisateurs assimilent les réponses de l’IA à celles d’un véritable thérapeute. Les experts soulignent l’importance de réglementer ces outils pour éviter les dérives et insistent sur le fait que l’IA ne doit jamais remplacer les professionnels de la santé mentale.
Si les gens se tournent vers la machine, c’est parce qu’ils ont de moins en moins la possibilité de le faire avec des professionnels de santé. Ainsi, on se retrouve avec des entreprises comme OpenAI qui vous donnent l’illusion d’avoir trouvé la solution à vos problèmes, gratuite et rapide, alors qu’il ne s’agit que d’une simulation..