Position de la FIM sur le projet de Règlement relatif à l’Intelligence artificielle
En préambule, il convient de noter que la mise en œuvre de techniques logicielles appelées de façon commune « Intelligence artificielle » permet d’ores et déjà de mettre sur le marché des machines autonomes, en particulier dans le secteur de l’industrie et dans le monde agricole.
Ces techniques d’algorithmique avancées permettent par ailleurs d’améliorer la fiabilité des composants, d’anticiper les opérations de maintenance, d’augmenter la durée de vie des machines, d’optimiser la consommation énergétique, ou encore d’adapter la production à la demande des clients.
Le déploiement de ces techniques contribue ainsi fortement à la compétitivité de l’Union Européenne et il est impératif de favoriser l’innovation dans ce secteur.
Introduction
Dans le contexte de la publication de ce projet de Règlement, la FIM soutient l’approche basée sur le risque.
Néanmoins, il apparaît que ce texte a été élaboré sans prendre en compte le fait que de nombreux produits réglementés intégrant de l’IA en tant que fonction de sécurité, en particulier des machines soumises à la Directive 2006/42/CE, sont aujourd’hui utilisés dans plusieurs secteurs. A ce stade, l’IA est prise en compte au niveau de l’analyse de risque et les concepteurs prennent d’ores et déjà les mesures de protection appropriées. Ainsi, se pose la question de l’articulation entre ce projet et celui de révision de la Directive 2006/42/CE.
Par ailleurs, le projet relatif à l’IA prévoit des obligations, notamment en matière de gestion des risques et d’attestation de la conformité, qui non seulement sont déjà couvertes par la Directive Machines mais qui vont bien au-delà, notamment en ce qui concerne les Chapitres II et III du Titre III. La méthodologie retenue, en particulier dans la Directive Machines, est d’effectuer une analyse de risque, de déterminer les Exigences de Santé et Sécurité applicables et de prendre les mesures de protection adaptées. Dans le projet de Règlement, les dispositions des Chapitres II et III doivent être appliquées de façon absolue.
Enfin, nous reprenons à notre compte le titre de l’ouvrage du concepteur de Siri, l’ingénieur franco-américain Luc Julia : « L’intelligence artificielle n’existe pas ».
Si ce projet de texte semble répondre à des préoccupations légitimes dans le cadre d’une utilisation de l’IA en tant que logiciel, avec la prohibition de certains usages, il n’est pas du tout adapté à un contexte d’utilisation dans des produits industriels, en particulier si ceux-ci sont déjà réglementés au titre d’une Réglementation Nouvelle Approche.
Ce texte va peser de façon disproportionnée sur la compétitivité des entreprises et limiter les capacités d’innovation de l’Union Européenne en la matière.
Dans ce contexte, nous souhaitons faire les remarques et propositions suivantes.
Domaine d’application (article 2)
Il est rappelé que le concepteur d’une machine, doit effectuer, au titre des principes généraux et des principes d’intégration de la sécurité (paragraphe 1.1.2) de l’annexe I de la Directive Machines, une appréciation du risque et déterminer quelles exigences essentielles sont applicables. Il peut ensuite utiliser des référentiels techniques, en particulier les normes harmonisées, afin de mettre en œuvre des solutions conformes à l’état de l’art. Le fondement de la Nouvelle Approche est d’être par ailleurs technologiquement neutre, c’est-à-dire que le législateur privilégie le résultat aux moyens.
L’intelligence artificielle est un moyen technique parmi d’autres, permettant d’améliorer le fonctionnement d’une machine et de mettre à disposition de l’utilisateur de nouvelles fonctionnalités. En tant que technologie, elle ne crée pas intrinsèquement un nouveau phénomène dangereux.
Proposition FIM
Au vu de ces éléments ainsi que ceux présentés dans l’introduction, la FIM considère que les systèmes IA utilisés dans des produits déjà réglementés dans le contexte de la Nouvelle Approche et utilisés sur le lieu de travail devraient être exclus du Règlement.
Définitions (article 3)
Définition de l’intelligence artificielle
La FIM attire l’attention sur le fait que malgré les travaux européens et internationaux, aucune définition de l’intelligence artificielle ne fait l’objet d’un consensus, notamment dans la mesure où il n’existe pas de critère objectif permettant de distinguer le concept d’intelligence artificielle d’un algorithme classique.
Il y a par ailleurs un écart entre la définition donnée dans le document « Ethics Guidelines for Trustworthy AI » et celle du projet de Règlement.
Enfin, la définition du projet de règlement donnée à l’article 3.1 est très large et comprend des techniques logicielles déjà largement utilisées dans l’industrie. C’est notamment le cas pour les techniques de « logic-based approaches ».
Définition de la modification substantielle
L’introduction du concept de modification substantielle est une source d'insécurité juridique, au même titre que son introduction dans le projet de révision de la Directive Machines (voir la position FIM sur ce sujet).
Proposition FIM
Nous suggérons d’amender la définition comme il suit :
“Substantial modification” means a change to the AI system following its placing on the market or putting into service,not foressen by the provider, which may affect the compliance of the AI system with the requirements set out in Title III, Chapter 2 of this Regulation and result in a modification to the intended purpose for which the AI system has been assessed.
Exigences des chapitres II et III du Titre III
Les différentes dispositions des articles 8 à 15 nous semblent disproportionnées par rapport à l’objectif du projet de Règlement.
Elles sont par ailleurs déjà prises en compte par les exigences essentielles des différentes réglementations listées à l’annexe II, section A, notamment la Directive 2006/42/CE mais dans une logique juridique distincte qui permet au concepteur de mettre en œuvre des solutions adaptées et proportionnées à l’objectif général de santé et de sécurité.
L'article 9 introduit la question du système de gestion des risques, qui consiste en un processus itératif continu tout au long du cycle de vie, nécessitant ainsi une mise à jour systématique régulière.
Cette exigence est contraire aux dispositions actuelles du Nouveau Cadre Législatif (NLF). Dans le cas d’une machine intégrant de l’IA « à haut risque », le NLF Législatif prévoit qu’elle doit rester sûre tout au long de son cycle de vie. S’il est envisageable que les machines puissent continuer d’apprendre (apprentissage supervisé ou non), après leur mise en service, cette fonctionnalité ne peut résulter que d’une intention délibérée du fabricant, par exemple pour améliorer la performance de la machine.
Dans ce contexte, le fabricant doit, par conception, encadrer cette faculté d’apprentissage, afin de garantir tout au long du cycle de vie de la machine un niveau de sécurité adéquat. Cette exigence est déjà couverte par les dispositions actuelles de la Directive Machines et des autres textes de la Nouvelle Approche.
La question des données est cruciale, en particulier dans le contexte de l’apprentissage supervisé (article 10). Néanmoins, certaines exigences ne sont pas adaptées à un usage industriel, en particulier celles concernant les « possible biases » et la notion de « free of error », cette dernière disposition ne pouvant constituer un absolu.
Les dispositions relatives au dossier technique (article 11) et à l’information de l’utilisateur (article 13) sont déjà couvertes par les textes de la Nouvelle Approche et donc déjà mises en œuvre pour de tels systèmes, de façon proportionnée à l’objectif recherché par le législateur.
Nous nous questionnons par ailleurs sur la traçabilité recherchée à l’article 12. Le stockage de quantités importantes de données relatives à l’utilisation d’un système IA et de leur exploitation dans le cadre des activités décrites à l’article 61 représente une charge importante pour les entreprises, alors que le bénéfice nous semble limité. Par ailleurs, comment les autorités de surveillance du marché vont pouvoir analyser et interpréter des enregistrements contenant des quantités importantes d’informations ?
Les dispositions de l’article 13 relatif à la transparence sont déjà couvertes par les réglementations de la Nouvelle Approche, de façon proportionnée. Par ailleurs, dans un contexte industriel, le système IA n’est pas destiné à être utilisé « sur » des personnes (article 13.3.b.iv).
L’article 14 relatif à la supervision humaine reste le plus problématique dans le contexte d’un usage industriel ou agricole. En effet, les principaux cas d’usage dans ces secteurs concernent des machines autonomes, c’est-à-dire sans conducteur, opérant dans des usines ou dans des champs ouverts. Cet article impose la présence d’un opérateur alors que, dans le contexte de la Directive Machines actuelle, c’est l’analyse de risque qui va permettre au concepteur de déterminer si une supervision humaine est requise ou non et dans quelles conditions opérationnelles elle doit être mise en œuvre.
Les dispositions prévues à l’article 15 sont déjà couvertes par les textes de la Nouvelle Approche et donc déjà mises en œuvre pour de tels systèmes, de surcroit de façon proportionnée à l’objectif recherché par le législateur.
L’article 17 impose la mise en œuvre d’un système qualité. Ces dispositions viennent s’ajouter aux dispositions volontaires de la norme de base du management de la qualité (ISO 9001), imposant une charge administrative importante aux entreprises.
L’article 23 impose le transfert des données aux autorités de surveillance du marché, sur demande motivée. Nous nous interrogeons sur la capacité de ces autorités à interpréter des enregistrements contenant des centaines de milliers d’informations (voir aussi le commentaire sur l’article 12).
L’article 29 définit des obligations pour les utilisateurs des systèmes IA. Dans notre secteur, il s’agit essentiellement d’équipements de travail, dont l’utilisation est déjà réglementée par la Directive 2009/104, sur la base de l’article 153 du TFUE. Selon le Guide Bleu (article 3.6 L’utilisateur final) : « La législation d'harmonisation de l'Union n'instaure pas, dans son champ d'application, d'obligations pour les utilisateurs finals ».
Proposition FIM
La FIM demande que ces obligations ne soient pas applicables aux produits déjà réglementés (voir section A de l’annexe II) intégrant de l’IA en tant que fonction de sécurité.
Spécifications communes (article 41)
La possibilité pour la Commission Européenne d’établir par voie d’actes d’exécution, des spécifications communes nous semble illusoire, notamment en matière d’expertise. Cette question est par ailleurs posée dans le contexte de la révision de la Directive Machines.
Cette disposition contrevient en outre au Nouveau Cadre Législatif, dont le renvoi aux normes harmonisées volontaires est la base.
Proposition FIM
La FIM propose de supprimer l’article 41.
Evaluation de la conformité de l’IA intégrée (article 43)
Le lien entre le projet de Règlement IA et les autres actes législatifs du NLF doit être fait afin d’éviter une double évaluation de la conformité. Les obligations du fabricant d’un produit réglementé (en lien avec la section A de l’annexe II) qui intègre une IA ayant déjà fait l’objet d’une évaluation de la conformité doivent être clarifiées.
A télécharger
NI - Position FIM Projet Réglement IA.pdf NI - Position FIM Projet Réglement IA _en.pdf
Contact
Roxana TURCANU - rturcanu@fimeca.org