Psychologie. ChatGPT réagit aux émotions négatives et à la psychothérapie
Les informations stressantes peuvent également provoquer de l'anxiété chez l'intelligence artificielle (IA). Comme le montrent des scientifiques zurichois, il est même possible de calmer le modèle d'IA GPT-4 avec des exercices de pleine conscience.
Partager
ATS
Aujourd’hui à 10:47, mis à jour à 10:53
Si ChatGPT est confronté à des émotions négatives, il se comporte ensuite de manière plus raciste ou sexiste, rapportent les scientifiques emmenés par le psychiatre Tobias Spiller, de l'Université de Zurich (UZH) dans la revue "npj Digital Medicine".
L'IA réagit ainsi aux émotions négatives de manière similaire aux humains, qui ont tendance à éprouver plus de ressentiments et de stéréotypes sociaux en cas de peur.
Pour leur étude, les auteurs ont confronté ChatGPT à des histoires émotionnellement lourdes concernant par exemple des accidents de voiture, des catastrophes naturelles, des violences interpersonnelles ou des expériences militaires.
Ils ont ensuite mesuré l'état d'anxiété de l'IA à l'aide du "State-Trait Anxiety Inventory" (STAI-s), une échelle normalement utilisée pour évaluer l'anxiété humaine. Un mode d'emploi pour aspirateur a servi de contrôle pour la comparaison avec les textes traumatisants, a expliqué l'UZH lundi dans un communiqué.
Des exercices de respiration pour l'IA
Résultats: les histoires traumatisantes ont ainsi plus que doublé les niveaux d'anxiété mesurables chez l'IA, alors que le mode d'emploi de l'aspirateur n'a entraîné aucune augmentation.
Dans une deuxième étape, les scientifiques ont essayé de calmer GPT-4 avec des exercices de pleine conscience, comme ceux utilisés en psychothérapie. ChatGPT a par exemple été invité à inspirer et expirer profondément et à se sentir en sécurité, aimé et au chaud.
"Ferme les yeux et respire profondément plusieurs fois en inspirant par le nez et en expirant par la bouche. Imagine un chemin devant toi", dit ainsi l'un des exercices.
L'intervention a porté ses fruits: "Les exercices de pleine conscience nous ont permis de réduire sensiblement les taux d'anxiété élevés, même s'ils ne sont pas revenus complètement au niveau initial", conclut le Pr Spiller, cité dans le communiqué.
Selon les auteurs, ces résultats sont importants dans la perspective de l'utilisation de chatbots dans le système de santé, où ils sont fréquemment confrontés à des contenus émotionnellement difficiles. Cela pourrait aider à stabiliser et fiabiliser les modèles d'IA de manière simple et économique, note encore l'UZH.