
Que ce soit pour assister dans la traque contre la fraude, ou pour aider les agents de France Services à répondre aux questions des citoyens, l’intelligence artificielle s’insère de plus en plus dans les services publics. Cette irruption fait partie du chantier plus large de la transformation numérique de l’État, qui a pour ambition de rendre les actions de l’État plus efficaces.
En regard des risques de l’IA — qu’ils soient existentiels, ou plus terre à terre et immédiats, et au vu les enjeux posés par leurs utilisations, on cherche aujourd’hui à développer des systèmes d’IA « dignes de confiance » (trustworthy).
Pendant L’utilisation de l’intelligence artificielle dans les services publics touche un très grand nombre de domaines.
les Jeux olympiques de Paris 2024, l’intelligence artificielle a été déployée pour identifier des situations dangereuses à partir d’images vidéo.
L’intelligence artificielle aide également à reconnaître des images de conducteurs ne portant pas de ceinture de sécurité, ou à reconnaître le visage des voyageurs se présentant à un dispositif PARAFE pour le contrôle de passeport. Une IA générative dénommée Albert aide les agents de France Services à répondre aux questions des citoyens sur les démarches à suivre.
Une IA aide les contrôleurs de la Caisse nationale des allocations familiales (CNAF) à prioriser les enquêtes pour fraude. Une autre analyse des images de satellite pour détecter des constructions non déclarées. Un algorithme d’IA est à l’œuvre dans le dispositif Parcoursup. Des outils contribuent à contrer des cyberattaques, d’autres analysent les données de connexion pour détecter des risques de terrorisme.
En 2022, le Conseil d’État a identifié huit grands champs de déploiement de l’IA par l’État, allant de la défense nationale à la personnalisation de l’accompagnement des demandeurs d’emploi.
Chacun de ces domaines demande une approche individualisée pour comprendre quels sont les risques associés à un déploiement de l’IA et comment les gérer en pratique.
Au sommaire
- Le terme « IA » recouvre une grande diversité de technologies, d’usages, et donc de risques
- Impossible d’adopter une approche unique pour une IA « digne de confiance »
- L’IA digne de confiance : des principes importants mais trop génériques pour être applicables concrètement
- Équité, explicabilité, performance : des valeurs souvent en concurrence
- Gouverner concrètement les déploiements de systèmes d’IA
- Des processus de gouvernance deviennent obligatoires pour les systèmes à « haut risque »
- La recherche scientifique sur l’IA digne de confiance permettra de réduire certains choix cornéliens
The Conversation
En regard des risques de l’IA — qu’ils soient existentiels, ou plus terre à terre et immédiats, et au vu les enjeux posés par leurs utilisations, on cherche aujourd’hui à développer des systèmes d’IA « dignes de confiance » (trustworthy).
Pendant L’utilisation de l’intelligence artificielle dans les services publics touche un très grand nombre de domaines.
les Jeux olympiques de Paris 2024, l’intelligence artificielle a été déployée pour identifier des situations dangereuses à partir d’images vidéo.
L’intelligence artificielle aide également à reconnaître des images de conducteurs ne portant pas de ceinture de sécurité, ou à reconnaître le visage des voyageurs se présentant à un dispositif PARAFE pour le contrôle de passeport. Une IA générative dénommée Albert aide les agents de France Services à répondre aux questions des citoyens sur les démarches à suivre.
Une IA aide les contrôleurs de la Caisse nationale des allocations familiales (CNAF) à prioriser les enquêtes pour fraude. Une autre analyse des images de satellite pour détecter des constructions non déclarées. Un algorithme d’IA est à l’œuvre dans le dispositif Parcoursup. Des outils contribuent à contrer des cyberattaques, d’autres analysent les données de connexion pour détecter des risques de terrorisme.
En 2022, le Conseil d’État a identifié huit grands champs de déploiement de l’IA par l’État, allant de la défense nationale à la personnalisation de l’accompagnement des demandeurs d’emploi.
Chacun de ces domaines demande une approche individualisée pour comprendre quels sont les risques associés à un déploiement de l’IA et comment les gérer en pratique.
Au sommaire
- Le terme « IA » recouvre une grande diversité de technologies, d’usages, et donc de risques
- Impossible d’adopter une approche unique pour une IA « digne de confiance »
- L’IA digne de confiance : des principes importants mais trop génériques pour être applicables concrètement
- Équité, explicabilité, performance : des valeurs souvent en concurrence
- Gouverner concrètement les déploiements de systèmes d’IA
- Des processus de gouvernance deviennent obligatoires pour les systèmes à « haut risque »
- La recherche scientifique sur l’IA digne de confiance permettra de réduire certains choix cornéliens
The Conversation
Dans la même rubrique
-
Parl. - L'accès aux services publics : renforcer et rénover le lien de confiance entre les administrations et les usagers: lancement d’une consultation en ligne
-
Doc - Bâtiments - Un nouvel outil public facilitateur pour prendre en compte les réglementations environnementales
-
Doc - Intelligence artificielle et services publics : la CNIL publie le bilan de son « bac à sable »
-
Actu - France Identité : une activation simplifiée dès la remise de la carte d'identité
-
Actu - Service public : comment garantir la continuité sur tous les territoires ?