Prévention des risques professionnels liés à l’émergence des intelligences artificielles dans les machines : éclairer les enjeux
Etude
Cette étude a été initiée sur l’idée que l’intelligence artificielle (IA) allait s’implanter largement dans les machines ; comme le montraient des travaux nationaux et européens sur les enjeux de l’IA et des travaux de la communauté de la prévention autour des usages de l’IA dans le monde du travail. L’étude visait à instruire cette arrivée des IA dans les machines et les enjeux en terme de risques professionnels. Ces enjeux ont été abordés selon quatre axes :
· une veille technologique, réglementaire et normative ;
· une expérimentation de laboratoire afin d’identifier les spécificités de ces systèmes de commandes, tant d’un point de vue technique qu’organisationnel et méthodologique ;
· une veille de marché pour identifier des candidats potentiels à un recueil d’expériences auprès des acteurs économiques de ce sujet ;
· une expérimentation visant à déterminer les particularités de comportement des machines mobiles autonomes dans des environnements de travail.
Il a été montré que l’IA très majoritairement employée dans les machines était l’apprentissage automatique (une technique d’IA qui permet à la machine d’écrire elle-même son programme sur la base d’exemples) et qu’elle était implantée dans les capteurs pour améliorer la perception des machines. Aucune application de l’IA à un équipement directement lié à la sécurité n’a été observée.
Les phases expérimentales ont montré que l’implantation d’une IA dans une machine engendrait une nouvelle phase du cycle de vie : la phase d’apprentissage ; ainsi qu’un mode de marche spécifique : le mode entrainement. Des spécificités, comme les manques d’explicabilité et de déterminisme de ces machines ont aussi été décrites.
L’IA ne peut pas être validée par les méthodes classiques ; interdisant son usage dans la chaine de sécurité d’une machine. L’étude a contribué aux travaux réglementaires et normatifs qui ont évolué au cours de ces quatre ans. Ces travaux devront se poursuivre pour permettre la validation de l’IA de sécurité.
-
Fiche technique
Fiche technique
-
Année de lancement
2020 -
Discipline(s)
Psychologie du travail - Sûreté de fonctionnement -
Responsable(s)
-
Participant(s)
-
Collaboration(s) extérieure(s)
Laboratoire lorrain de recherche en informatique et ses applications (Loria) - Centre de recherche en automatique de Nancy (Cran) - Commissariat à l'énergie atomique (CEA) Tech. - Télécom Nancy -
Référence
EL2020-005
-
-
Publications et communications
Publications et communications
- SARREY M. Comment une IA fonctionnelle peut-elle être intégrée sans risque dans une machine ? Proceedings of SIAS 2024, 12-13 Juny 2024, Tampere (Finland), ISBN: 13 978-952-5183-64-1, 12 p.
- SARREY M. Intelligence artificielle dans une machine : quel impact sur son fonctionnement ? Hygiène & sécurité du travail, n°273, décembre 2023, dc39, pp. 5-10
- SARREY M. Exigences essentielles de sécurité des machines pourvues d’intelligence artificielle 5/10/2023-PARIS-Webinaire - Nouveau Règlement Machines 2023/1230 : Quel impact sur les normes ?
- MALENFER M., HERY M., CLERTE J., SARREY M. L'intelligence artificielle au service de la santé et sécurité au travail : enjeux et perspectives à l'horizon 2035 Hygiène & sécurité du travail, n°269, décembre 2022, vp36, pp. 87-96
- SARREY M., BORGEOT C., MOUCHTAKI W. Enjeux sécurité de l’IA dans les machines Proceeding of SIAS 2020, 6-7 july 2021, Aichi (Japan), OR-T13, pp. 76-81
- SARREY M. Enjeux sécurité de l’IA dans les machines 6/7/2021-AICHI-SIAS 2020 - 10ème Conférence Internationale « Safety of Industrial Automated Systems »