
Définir l’IA et définir la conscience : deux écueils complexes sur lesquels achoppent aujourd’hui les textes qui visent à réguler les pratiques de manipulation des citoyens et des consommateurs.
La Commission européenne dresse une taxonomie des risques systémiques engendrés par les IA génératives à usage général (celles permettant de produire du contenu de type texte, code, image, son, vidéo). La dernière version de cette taxonomie (2024) est fondée sur les analyses d’experts mondiaux — notamment celles de Joshua Bengio , titulaire du Prix d’informatique Alan Turing 2018, mais également celles de John Hopfield, prix Nobel de physique 2024 , et de Daron Acemoglu, prix Nobel d’économie 2024.
Y apparaissent comme risques systémiques, entre autres, les risques de manipulation malveillante des humains à grande échelle par des IA (manipulations électorales, atteintes aux droits fondamentaux…), les risques de discrimination illégale à grande échelle par des systèmes d’IA prenant des décisions automatisées à enjeux élevés, et les risques de perte de contrôle des IA par l’humain.
Sommaire
- Les initiatives pour réguler l’IA se multiplient
- Cette multiplication est-elle un signe de l’impuissance à appréhender efficacement ces techniques ?
- La lutte contre les pratiques d’IA manipulatrices repose aujourd’hui sur des notions incertaines
- Vers la consécration d’un nouveau texte européen pour réguler les pratiques d’IA au même titre que les autres pratiques numériques
Source - The Conversation
La Commission européenne dresse une taxonomie des risques systémiques engendrés par les IA génératives à usage général (celles permettant de produire du contenu de type texte, code, image, son, vidéo). La dernière version de cette taxonomie (2024) est fondée sur les analyses d’experts mondiaux — notamment celles de Joshua Bengio , titulaire du Prix d’informatique Alan Turing 2018, mais également celles de John Hopfield, prix Nobel de physique 2024 , et de Daron Acemoglu, prix Nobel d’économie 2024.
Y apparaissent comme risques systémiques, entre autres, les risques de manipulation malveillante des humains à grande échelle par des IA (manipulations électorales, atteintes aux droits fondamentaux…), les risques de discrimination illégale à grande échelle par des systèmes d’IA prenant des décisions automatisées à enjeux élevés, et les risques de perte de contrôle des IA par l’humain.
Sommaire
- Les initiatives pour réguler l’IA se multiplient
- Cette multiplication est-elle un signe de l’impuissance à appréhender efficacement ces techniques ?
- La lutte contre les pratiques d’IA manipulatrices repose aujourd’hui sur des notions incertaines
- Vers la consécration d’un nouveau texte européen pour réguler les pratiques d’IA au même titre que les autres pratiques numériques