ID CiTé - Veille juridique et professionnelle des collectivités territoriales





RH - Actualités

RH - Actu // Quand l’IA nous manipule : comment réguler les pratiques qui malmènent notre libre arbitre ?

(Article ID.CiTé/ID.Veille du 04/02/2025 )



RH - Actu //  Quand l’IA nous manipule : comment réguler les pratiques qui malmènent notre libre arbitre ?
Définir l’IA et définir la conscience : deux écueils complexes sur lesquels achoppent aujourd’hui les textes qui visent à réguler les pratiques de manipulation des citoyens et des consommateurs.
La Commission européenne dresse une 
taxonomie des risques systémiques engendrés par les IA génératives à usage général  (celles permettant de produire du contenu de type texte, code, image, son, vidéo). La dernière version de cette taxonomie (2024) est fondée sur les analyses d’experts mondiaux — notamment celles de Joshua Bengio , titulaire du Prix d’informatique Alan Turing 2018, mais également celles de John Hopfield, prix Nobel de physique 2024 , et de Daron Acemoglu, prix Nobel d’économie 2024.
Y apparaissent comme risques systémiques, entre autres, les risques de manipulation malveillante des humains à grande échelle par des IA (manipulations électorales, atteintes aux droits fondamentaux…), les risques de discrimination illégale à grande échelle par des systèmes d’IA prenant des décisions automatisées à enjeux élevés, et les risques de perte de contrôle des IA par l’humain.
Sommaire
 - Les initiatives pour réguler l’IA se multiplient
 - Cette multiplication est-elle un signe de l’impuissance à appréhender efficacement ces techniques ?
 - La lutte contre les pratiques d’IA manipulatrices repose aujourd’hui sur des notions incertaines
 - Vers la consécration d’un nouveau texte européen pour réguler les pratiques d’IA au même titre que les autres pratiques numériques
Source - 
The Conversation




 







Recherche

Derniers articles RH les plus lus