ID CiTé - Veille juridique et professionnelle des collectivités territoriales





RH - Documentation

RH - Doc // « ChatGPT m’a dit que… » : l’illusion de la discussion avec l’IA nous mène à l’erreur

(Article ID.CiTé/ID.Veille du 25/09/2024 )



RH - Doc //  « ChatGPT m’a dit que… » : l’illusion de la discussion avec l’IA nous mène à l’erreur
Certains risques liés à l’usage de l’IA générative, et en particulier d’agents conversationnels comme ChatGPT, commencent à être bien décrits et assimilés par les utilisateurs. C’est le cas pour ce qui concerne leurs coûts financier et environnemental déraisonnables, le besoin de protection des données  ou le rôle croissant de ces outils comme porte d’entrée sur Internet.

Cependant, un autre phénomène, probablement plus diffus et plus insidieux, est encore mal décrit et pris en compte. De par sa fonction d’agent conversationnel, nous projetons de facto sur ChatGPT des fonctions cognitives similaires à celles qu’un interlocuteur humain pourrait développer. Se tourner vers les 
sciences cognitives  va permettre de mieux comprendre leur nature, les interactions qui vont en résulter et les risques associés. Cette caractéristique primordiale des chatbots provoque en effet une mécompréhension de leur fonctionnement par l’utilisateur et donc un excès de confiance dans leurs résultats.

Sommaire
 - La cognition humaine peut suivre deux chemins
 - Quel est le profil cognitif d’un agent conversationnel ?
 - Trois limitations fondamentales de l’être humain
 - Les apparences de la conversation avec ChatGPT nous induisent en erreur
 - Quand les sciences humaines et sociales nous permettent de comprendre nos relations avec ChatGPT
 - Nous risquons de perdre en compréhension et en créativité

Source - 
The Conversation




 







Recherche

Derniers articles RH les plus lus