
Les risques managériaux principaux sont liés à la responsabilité humaine dans la décision et de la dépendance humaine aux outils d’analyse de données. Le manager prend des décisions en se basant sur les informations générées par les outils d’IA.
Qui est responsable si les résultats donnés par l’outil numérique sont faux et que le manager en conséquence a pris une mauvaise décision ayant des implications lourdes ?
Un exemple peut être les études de marchés développés par ChatGPT avec des recommandations plausibles mais basées sur de mauvaises informations et sur lesquelles s’appuieraient des décisions managériales.
Les risques opérationnels sont eux essentiellement liés à la sécurité et à la fraude. D’un côté, l’IA pourrait aider à améliorer la sécurité des transactions financières, mais il peut aussi augmenter le pouvoir de nuisance des fraudeurs. En effet, cette numérisation extrême constitue un terrain propice aux cyberattaques. Un outil d’IA peut par exemple imiter la voix d’un tiers de confiance et obtenir ainsi des informations confidentielles. ChatGPT pourrait même étudier et permettre de briser les pare-feux des entreprises.
Les risques au sein du marché de travail sont liés au possible remplacement de certains métiers par l’IA. Jusqu’à récemment, les craintes étaient liées aux métiers des cols bleus mais désormais ces craintes se portent sur les cols blancs. Par exemple, les textes écrits dans n’importe quel domaine, des problèmes complexes de mathématiques, des programmes informatiques peuvent à présent être effectués par ChatGPT, bien qu’une intervention humaine soit souvent requise pour finaliser les résultats. Ces compétences pourraient donc remplacer beaucoup de métiers à terme. Pour qu’elle fonctionne mieux, l’IA doit pouvoir discerner les données produites par des experts fiables de celles produites par d’autres.
-----------------------
Au-delà de ces problématiques qui concernent directement les entreprises, d’autres risques apparaissent, tels que ceux qui concernent les clivages sociaux….
The Conversation >> Article complet
Qui est responsable si les résultats donnés par l’outil numérique sont faux et que le manager en conséquence a pris une mauvaise décision ayant des implications lourdes ?
Un exemple peut être les études de marchés développés par ChatGPT avec des recommandations plausibles mais basées sur de mauvaises informations et sur lesquelles s’appuieraient des décisions managériales.
Les risques opérationnels sont eux essentiellement liés à la sécurité et à la fraude. D’un côté, l’IA pourrait aider à améliorer la sécurité des transactions financières, mais il peut aussi augmenter le pouvoir de nuisance des fraudeurs. En effet, cette numérisation extrême constitue un terrain propice aux cyberattaques. Un outil d’IA peut par exemple imiter la voix d’un tiers de confiance et obtenir ainsi des informations confidentielles. ChatGPT pourrait même étudier et permettre de briser les pare-feux des entreprises.
Les risques au sein du marché de travail sont liés au possible remplacement de certains métiers par l’IA. Jusqu’à récemment, les craintes étaient liées aux métiers des cols bleus mais désormais ces craintes se portent sur les cols blancs. Par exemple, les textes écrits dans n’importe quel domaine, des problèmes complexes de mathématiques, des programmes informatiques peuvent à présent être effectués par ChatGPT, bien qu’une intervention humaine soit souvent requise pour finaliser les résultats. Ces compétences pourraient donc remplacer beaucoup de métiers à terme. Pour qu’elle fonctionne mieux, l’IA doit pouvoir discerner les données produites par des experts fiables de celles produites par d’autres.
-----------------------
Au-delà de ces problématiques qui concernent directement les entreprises, d’autres risques apparaissent, tels que ceux qui concernent les clivages sociaux….
The Conversation >> Article complet