Définir l’IA et définir la conscience : deux écueils complexes sur lesquels achoppent aujourd’hui les textes qui visent à réguler les pratiques de manipulation des citoyens et des consommateurs.
La Commission européenne dresse une taxonomie des risques systémiques engendrés par les IA génératives à usage général (celles permettant de produire du contenu de type texte, code, image, son, vidéo). La dernière version de cette taxonomie (2024) est fondée sur les analyses d’experts mondiaux — notamment celles de Joshua Bengio , titulaire du Prix d’informatique Alan Turing 2018, mais également celles de John Hopfield, prix Nobel de physique 2024 , et de Daron Acemoglu, prix Nobel d’économie 2024.
Y apparaissent comme risques systémiques, entre autres, les risques de manipulation malveillante des humains à grande échelle par des IA (manipulations électorales, atteintes aux droits fondamentaux…), les risques de discrimination illégale à grande échelle par des systèmes d’IA prenant des décisions automatisées à enjeux élevés, et les risques de perte de contrôle des IA par l’humain.
Sommaire
- Les initiatives pour réguler l’IA se multiplient
- Cette multiplication est-elle un signe de l’impuissance à appréhender efficacement ces techniques ?
- La lutte contre les pratiques d’IA manipulatrices repose aujourd’hui sur des notions incertaines
- Vers la consécration d’un nouveau texte européen pour réguler les pratiques d’IA au même titre que les autres pratiques numériques
The Conversation
La Commission européenne dresse une taxonomie des risques systémiques engendrés par les IA génératives à usage général (celles permettant de produire du contenu de type texte, code, image, son, vidéo). La dernière version de cette taxonomie (2024) est fondée sur les analyses d’experts mondiaux — notamment celles de Joshua Bengio , titulaire du Prix d’informatique Alan Turing 2018, mais également celles de John Hopfield, prix Nobel de physique 2024 , et de Daron Acemoglu, prix Nobel d’économie 2024.
Y apparaissent comme risques systémiques, entre autres, les risques de manipulation malveillante des humains à grande échelle par des IA (manipulations électorales, atteintes aux droits fondamentaux…), les risques de discrimination illégale à grande échelle par des systèmes d’IA prenant des décisions automatisées à enjeux élevés, et les risques de perte de contrôle des IA par l’humain.
Sommaire
- Les initiatives pour réguler l’IA se multiplient
- Cette multiplication est-elle un signe de l’impuissance à appréhender efficacement ces techniques ?
- La lutte contre les pratiques d’IA manipulatrices repose aujourd’hui sur des notions incertaines
- Vers la consécration d’un nouveau texte européen pour réguler les pratiques d’IA au même titre que les autres pratiques numériques
The Conversation