Accès rapides :

Vous êtes ici :

  1. Accueil
  2. INRS
  3. Activités de recherche
  4. Prévention des risques professionnels liés à l’émergence des intelligences artificielles dans les machines : éclairer les enjeux (rubrique sélectionnée)

Prévention des risques professionnels liés à l’émergence des intelligences artificielles dans les machines : éclairer les enjeux

Etude

Cette étude a été initiée sur l’idée que l’intelligence artificielle (IA) allait s’implanter largement dans les machines ; comme le montraient des travaux nationaux et européens sur les enjeux de l’IA et des travaux de la communauté de la prévention autour des usages de l’IA dans le monde du travail. L’étude visait à instruire cette arrivée des IA dans les machines et les enjeux en terme de risques professionnels. Ces enjeux ont été abordés selon quatre axes :
· une veille technologique, réglementaire et normative ;
· une expérimentation de laboratoire afin d’identifier les spécificités de ces systèmes de commandes, tant d’un point de vue technique qu’organisationnel et méthodologique ;
· une veille de marché pour identifier des candidats potentiels à un recueil d’expériences auprès des acteurs économiques de ce sujet ;
· une expérimentation visant à déterminer les particularités de comportement des machines mobiles autonomes dans des environnements de travail.
Il a été montré que l’IA très majoritairement employée dans les machines était l’apprentissage automatique (une technique d’IA qui permet à la machine d’écrire elle-même son programme sur la base d’exemples) et qu’elle était implantée dans les capteurs pour améliorer la perception des machines. Aucune application de l’IA à un équipement directement lié à la sécurité n’a été observée.
Les phases expérimentales ont montré que l’implantation d’une IA dans une machine engendrait une nouvelle phase du cycle de vie : la phase d’apprentissage ; ainsi qu’un mode de marche spécifique : le mode entrainement. Des spécificités, comme les manques d’explicabilité et de déterminisme de ces machines ont aussi été décrites.
L’IA ne peut pas être validée par les méthodes classiques ; interdisant son usage dans la chaine de sécurité d’une machine. L’étude a contribué aux travaux réglementaires et normatifs qui ont évolué au cours de ces quatre ans. Ces travaux devront se poursuivre pour permettre la validation de l’IA de sécurité.

Disciplines de recherche
Psychologie du travail
Etudes Publications Communications
Sûreté de fonctionnement
Etudes Publications Communications