Travail de synthèse fait ce jour. Le travail se poursuit demain.
Module IAS1122 : Intelligence artificielle
Sujet : Intelligence artificielle et la responsabilité ...
suite...
Travail de synthèse fait ce jour. Le travail se poursuit demain.
Module IAS1122 : Intelligence artificielle
Sujet : Intelligence artificielle et la responsabilité juridique dans le domaine de la santé
I. Introduction
II. Principes de fonctionnement de l’IA
III. Règlementation de la technologie de l’IA
IV. Régime de responsabilité des technologies de l’IA
V. Conclusion
I. Introduction
L'intelligence artificielle (IA) est « l'ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence »[1] . C’est aussi la discipline qui consiste à créer des programmes informatiques qui effectuent des opérations comparables à celles de l’être humain. Avec l’IA les machines peuvent faire des apprentissages ou un raisonnement logique. L’IA s’applique à presque tous les domaines. Son usage dans la santé a révolutionné ce domaine notamment dans la radiologie, la clinique, le laboratoire pour ne citer que ceux-ci. Mais, force est de constater que des critiques subsistent dans cette application, tant la robotisation de ce domaine tend à remplacer l’effort humain.
Quel est le principe de fonctionnement de l’IA ? Comment une machine peut-elle répondre de ses actes devant un juge ? Quelles sont les dispositions légales mises en place pour éviter les débordements liés à l’utilisation de l’IA? Telles sont les questions auxquelles nous répondront dans la suite de notre travail.
II. Principes de fonctionnement de l’IA
L’IA fonctionne à partir de l’apprentissage des comportements pour prévoir et résoudre les défis futurs. Les deux principales divisions de l’IA sont :
• L’IA simple ou faible qui fonctionne à partir de la définition préalable des tâches spécifiques.
• L’IA complexe ou forte qui fonctionne à peu près comme l’esprit humain.[2]
l’IA fonctionne selon un processus qui lui est spécifique à travers les étapes suivantes :
• Identifier l’importance du problème ;
• Analysez les situations passées et étudiez toutes les variables possibles liées au problème que vous souhaitez analyser ;
• Grâce à un système de statistiques, prédire le résultat de ce problème, toujours à partir de données connues ;
• Une fois que le système a toutes les données, il fournit la solution la plus réaliste au problème. Ainsi, l’IA apprend à résoudre automatiquement, dans le futur, un problème semblable.[2]
Plusieurs controverses sont survenues avec l’Intelligence artificielle. Certains penseurs prédisent la fin de la race humaine pendant que d’autres sont optimistes à ce sujet. Les avantages de l’IA ne sont plus à démontrer, en témoigne le gain financier pour les entreprises qui utilisent cette technologie.
III. Règlementation de la technologie de l’IA
L’IA ne dispose pas d’une règlementation propre. Pour ce faire, pour valoriser l’innovation, la protection des composantes de l’IA à savoir les logiciels, les données et les algorithmes est plus qu’une nécessité. L’appréciation des textes déjà existants permet de s’apercevoir que les données et les logiciels sont protégés sous certaines conditions. Les logiciels sont couverts par la règlementation en faveur du droit d’auteur à condition de comporter une part d’originalité, l’originalité étant la condition pour être prise en compte. Les données peuvent bénéficier de la protection sui generis des bases de données, à condition de prouver un investissement substantiel du producteur et d’être conformes au droit des données personnelles. Les algorithmes quant à eux, ne bénéficient pas de protection en tant que tels. Leur non protection s’explique par le fait que les méthodes mathématiques ne sont pas protégeables [3]. Les algorithmes sont bâtis sur la base de méthodes mathématiques et ne peuvent par conséquent pas être protégés. En résumé, les différentes composantes de l’IA ne bénéficient pas d’une protection stricte propre à ce domaine. Cela ouvre la porte à plusieurs dérives possibles de l’utilisation de l’IA. En plus, personnes ne pourrait être tenue pour responsable des données générées par l’IA, posant ainsi l’épineuse question de la paternité des données générées par l’IA. De ce fait, lorsque des problèmes surviennent, il serait difficile de juger cela. Les règles de droit habituel ne permettent pas de répondre à cette sollicitation du droit. Le RGPD (Règlement Général sur la Protection des Données) et la Loi Informatique et Libertés encadrent l’usage des données personnelles et interdisent la prise de décision par la seule machine. Le RGPD est entré en application depuis le 25 mai 2018 dans tous les territoires européens et l’essentiel des objectifs poursuivis se déclinent comme suit:
• Uniformiser au niveau européen la réglementation sur la protection des données ;
• Responsabiliser davantage les entreprises en développant l’auto-contrôle ;
• Renforcer le droit des personnes (droit à l’accès, droit à l’oubli, droit à la portabilité, etc.).
La loi Informatique et Libertés est en vigueur en France depuis le 1er Juin 2019. Elle contient des points communs avec le RGPD. Cette loi prend en charge le traitement des données à caractère personnel[4].
La loi pour une République numérique s’inscrit dans la même logique que le RGPD, quand elle renforce l’obligation faite à ceux qui déploient des algorithmes d’en informer les personnes concernées [3]. La loi pour une république numérique a été promulguée le 7 octobre 2016. Elle prépare le pays aux enjeux de la transition numérique et de l’économie de demain. Elle promeut l’innovation et le développement de l’économie numérique, une société numérique ouverte, fiable et protectrice des droits des citoyens. Elle vise également à garantir l’accès de tous, dans tous les territoires, aux opportunités liées au numérique [5]. Malgré ces différentes lois, la transparence devant l’IA est difficile quand on sait que les systèmes sont complexes et évolutifs. La technologie s’améliore au fil du temps. L’impact de l’IA sur le droit du travail ou le droit de la santé est une énigme à résoudre.
Dans le domaine de la santé, le respect de la vie privée est une préoccupation majeure. Plusieurs tests ont prouvé que l’application de l’IA dans le domaine de la santé rend celui-ci très vulnérable. Des attaques pirates sont fréquentes et peuvent exposer la vie de plusieurs personnes. Pour résoudre cela, certaines règlementations telles le RGPD ont introduit la clause de consentement et d’anonymat dans le recueil des données personnelles. Mais cette clause reste insuffisante car l’apprentissage automatique pourrait permettre de relier les données à un individu. C’est dire ici, toutes les limites qu’il y a par rapport à la protection des données personnelles.
IV. Responsabilité juridique des technologies de l’IA
Les progrès en matière d’internet, d’informatique et autres technologies sont croissants. De nos jours, les concepteurs se tournent plus vers la robotique et l’intelligence artificielle c’est-à-dire des machines capables de fonctionner de façon autonome et reproduit l’intelligence humaine. Dans le domaine, l’emploi de cette technologie se fait apercevoir. En effet, plusieurs domaines sont soumis à l’emploi de cette technologie. Du laboratoire à la radiologie en passant par la clinique, des algorithmes sont développés pour faciliter le diagnostic de la maladie. Mais, il faut noter l’absence d’une règlementation de ce domaine et l’absence de responsabilité des utilisateurs de cette technologie.
L’utilisation de robots et de l’IA n’avaient pas été soumise à une règlementation protégeant le bénéficiaire de cette technologie. Dans un souci de définir les responsabilités des utilisateurs de l’IA et des robots, le parlement européen a adopté une résolution sur les règles de droit civil en matière de robotique, assortie de recommandations à la Commission européenne en 2017. Il a par ailleurs demandé à la commission de proposer un instrument législatif sur les responsabilités des robots et de l’IA. Ainsi la commission a proposé dix points de responsabilité de cette technologie qui se décline comme ci-dessous :
1. L’exploitant d’une technologie autorisée mais comportant un risque accru de préjudice pour autrui, comme des robots pilotés par des IA dans des lieux publics, devrait être soumis à une responsabilité stricte pour les dommages résultant de son exploitation.
2. Lorsqu’un prestataire de services assurant le cadre technique nécessaire exerce un contrôle plus élevé que le propriétaire ou l’utilisateur d’un produit ou d’un service réel doté d’une IA, il faut en tenir compte pour déterminer qui exploite principalement la technologie.
3. L’utilisateur d’une technologie ne présentant pas de risque accru de préjudice pour autrui devrait néanmoins être tenu de respecter les obligations de sélectionner, d’exploiter, de surveiller et d’entretenir correctement la technologie utilisée et devrait être responsable du non-respect de ces obligations en cas de faute.
4. L’utilisateur d’une technologie dotée d’un certain degré d’autonomie ne devrait pas être moins responsable du préjudice qui en résulte que si ce préjudice avait été causé par un auxiliaire humain.
5. Les fabricants de produits ou de contenu numérique intégrant une technologie numérique émergente devraient être responsables des dommages causés par des défauts de leurs produits, même si le défaut résulte des modifications apportées au produit sous le contrôle du producteur après sa mise sur le marché.
6. Pour les situations exposant des tiers à un risque accru de préjudice, l’assurance responsabilité civile obligatoire pourrait donner aux victimes un meilleur accès à l’indemnisation et protéger les auteurs potentiels de délits contre le risque de responsabilité.
7. Lorsqu’une technologie particulière accroît les difficultés de prouver l’existence d’un élément de responsabilité au-delà de ce que l’on peut raisonnablement attendre, les victimes devraient avoir droit à une facilitation de la preuve.
8. Les technologies numériques émergentes devraient être dotées de fonctions d’enregistrement, lorsque les circonstances le justifient, et l’absence d’enregistrement ou d’accès raisonnable aux données enregistrées devrait entraîner un renversement de la charge de la preuve pour ne pas porter préjudice à la victime.
9. La destruction des données de la victime devrait être considérée comme un dommage, indemnisable dans des conditions spécifiques.
10. Il ne faut pas conférer une personnalité juridique aux dispositifs ou systèmes autonomes, car le préjudice qu’ils peuvent causer peut et doit être imputable à des personnes ou organismes existants [4].
Malgré ces recommandations de la commission européenne, il faut noter qu’une véritable règlementation n’est pas encore mise en place. Mais plusieurs rencontres ont déjà été tenues parmi lesquelles la Vème Conférence franco-japonaise d’éthique des sciences et de bioéthique sur la recherche médicale, qui s’est tenue à Toulouse du 24-26 mars 2011[5]. Des outils juridiques existent mais sont limités par rapport à l’emploi dont on fait de l’intelligence artificielle. Nous pouvons citer entre autres le droit des contrats, le droit de la consommation et le droit de la propriété intellectuelle[5] qui, somme toute permettent de réguler la production intellectuelle. Pour ce qui est du droit des contrats, la loi impose au vendeur professionnel l’obligation de délivrance et l’obligation de garantie. Concernant le droit de la propriété intellectuelle, des brevets d’invention sont couramment accordés dans le domaine de la robotique surtout les robots chirurgicaux. Mais la règlementation n’est pas stricte à ce niveau.
V. Conclusion
Bibliographie
1. https://fr.wikipedia.org/wiki/Intelligence_artificielle. In.
2. https://bluumi.net/intelligence-artificielle.
3. http://www.revue-banque.fr/risques-reglementations/article/intelligence-artificielle-vers-une-reglementation#desc-puce-nbp-11.
4. https://www.lecho.be/opinions/general/quel-regime-de-responsabilite-appliquer-a-l-intelligence-artificielle/10212045.html.
5. https://www.murielle-cahen.com/publications/robot.asp.