Groupe II: Intelligence artificielle et la responsabilité juridique dans le domaine de la santé

Groupe II: Intelligence artificielle et la responsabilité juridique dans le domaine de la santé

par Relwende Aristide YAMEOGO,

Vous travaillez sur un exposé qui portera sur " Intelligence artificielle et la responsabilité juridique". Elle compte pour l'évaluation du semestre

Cet exposé sera ...

suite...

Vous travaillez sur un exposé qui portera sur " Intelligence artificielle et la responsabilité juridique". Elle compte pour l'évaluation du semestre

Cet exposé sera réalisé dans un premier en groupe et sera enrichi dans un second temps individuellement. Vous déposerez un document unique individuel comportant une première partie qui porte sur le travail de groupe et une deuxième partie qui porte sur votre réflexion personnelle.

Je tiens à ce que les sources soient correctement citées selon la méthode Vancouver bracket.

Vous utiliserez la police times new roman, interligne simple.

Les discussions en groupe et les travaux du groupe doivent se faire sur l'espace du forum dédié à ce sujet

Date limite de rendu des copies: 15 février 2021.


Re: Groupe II: Intelligence artificielle et la responsabilité juridique dans le domaine de la santé

par Momo Sami,
Merci prof, mais nous on n'avait pas compris le principe. Nous discussions sur Whatsapp.

suite...

Merci prof, mais nous on n'avait pas compris le principe. Nous discussions sur Whatsapp.

Re: Groupe II: Intelligence artificielle et la responsabilité juridique dans le domaine de la santé

par Momo Sami,
Proposition du plan de travail
I. Introduction
II. Généralités sur l’IA et application dans le domaine de la santé
III. Règlementation de la technologie de l'IA
IV. Regime ...

suite...

Proposition du plan de travail
I. Introduction
II. Généralités sur l’IA et application dans le domaine de la santé
III. Règlementation de la technologie de l'IA
IV. Regime de responsabilité applicable à l'IA
V. Conclusion

Re: Groupe II: Intelligence artificielle et la responsabilité juridique dans le domaine de la santé

par Momo Sami,
Les membres du groupe sont invités à apporter leurs amendements.

suite...

Les membres du groupe sont invités à apporter leurs amendements.

Re: Groupe II: Intelligence artificielle et la responsabilité juridique dans le domaine de la santé

par Momo Sami,
Travail de synthèse fait ce jour. Le travail se poursuit demain.

Module IAS1122 : Intelligence artificielle
Sujet : Intelligence artificielle et la responsabilité ...

suite...

Travail de synthèse fait ce jour. Le travail se poursuit demain.

Module IAS1122 : Intelligence artificielle
Sujet : Intelligence artificielle et la responsabilité juridique dans le domaine de la santé
I. Introduction
II. Principes de fonctionnement de l’IA
III. Règlementation de la technologie de l’IA
IV. Régime de responsabilité des technologies de l’IA
V. Conclusion

I. Introduction
L'intelligence artificielle (IA) est « l'ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence »[1] . C’est aussi la discipline qui consiste à créer des programmes informatiques qui effectuent des opérations comparables à celles de l’être humain. Avec l’IA les machines peuvent faire des apprentissages ou un raisonnement logique. L’IA s’applique à presque tous les domaines. Son usage dans la santé a révolutionné ce domaine notamment dans la radiologie, la clinique, le laboratoire pour ne citer que ceux-ci. Mais, force est de constater que des critiques subsistent dans cette application, tant la robotisation de ce domaine tend à remplacer l’effort humain.
Quel est le principe de fonctionnement de l’IA ? Comment une machine peut-elle répondre de ses actes devant un juge ? Quelles sont les dispositions légales mises en place pour éviter les débordements liés à l’utilisation de l’IA? Telles sont les questions auxquelles nous répondront dans la suite de notre travail.
II. Principes de fonctionnement de l’IA
L’IA fonctionne à partir de l’apprentissage des comportements pour prévoir et résoudre les défis futurs. Les deux principales divisions de l’IA sont :
• L’IA simple ou faible qui fonctionne à partir de la définition préalable des tâches spécifiques.
• L’IA complexe ou forte qui fonctionne à peu près comme l’esprit humain.[2]
l’IA fonctionne selon un processus qui lui est spécifique à travers les étapes suivantes :
• Identifier l’importance du problème ;
• Analysez les situations passées et étudiez toutes les variables possibles liées au problème que vous souhaitez analyser ;
• Grâce à un système de statistiques, prédire le résultat de ce problème, toujours à partir de données connues ;
• Une fois que le système a toutes les données, il fournit la solution la plus réaliste au problème. Ainsi, l’IA apprend à résoudre automatiquement, dans le futur, un problème semblable.[2]
Plusieurs controverses sont survenues avec l’Intelligence artificielle. Certains penseurs prédisent la fin de la race humaine pendant que d’autres sont optimistes à ce sujet. Les avantages de l’IA ne sont plus à démontrer, en témoigne le gain financier pour les entreprises qui utilisent cette technologie.
III. Règlementation de la technologie de l’IA

L’IA ne dispose pas d’une règlementation propre. Pour ce faire, pour valoriser l’innovation, la protection des composantes de l’IA à savoir les logiciels, les données et les algorithmes est plus qu’une nécessité. L’appréciation des textes déjà existants permet de s’apercevoir que les données et les logiciels sont protégés sous certaines conditions. Les logiciels sont couverts par la règlementation en faveur du droit d’auteur à condition de comporter une part d’originalité, l’originalité étant la condition pour être prise en compte. Les données peuvent bénéficier de la protection sui generis des bases de données, à condition de prouver un investissement substantiel du producteur et d’être conformes au droit des données personnelles. Les algorithmes quant à eux, ne bénéficient pas de protection en tant que tels. Leur non protection s’explique par le fait que les méthodes mathématiques ne sont pas protégeables [3]. Les algorithmes sont bâtis sur la base de méthodes mathématiques et ne peuvent par conséquent pas être protégés. En résumé, les différentes composantes de l’IA ne bénéficient pas d’une protection stricte propre à ce domaine. Cela ouvre la porte à plusieurs dérives possibles de l’utilisation de l’IA. En plus, personnes ne pourrait être tenue pour responsable des données générées par l’IA, posant ainsi l’épineuse question de la paternité des données générées par l’IA. De ce fait, lorsque des problèmes surviennent, il serait difficile de juger cela. Les règles de droit habituel ne permettent pas de répondre à cette sollicitation du droit. Le RGPD (Règlement Général sur la Protection des Données) et la Loi Informatique et Libertés encadrent l’usage des données personnelles et interdisent la prise de décision par la seule machine. Le RGPD est entré en application depuis le 25 mai 2018 dans tous les territoires européens et l’essentiel des objectifs poursuivis se déclinent comme suit:
• Uniformiser au niveau européen la réglementation sur la protection des données ;
• Responsabiliser davantage les entreprises en développant l’auto-contrôle ;
• Renforcer le droit des personnes (droit à l’accès, droit à l’oubli, droit à la portabilité, etc.).
La loi Informatique et Libertés est en vigueur en France depuis le 1er Juin 2019. Elle contient des points communs avec le RGPD. Cette loi prend en charge le traitement des données à caractère personnel[4].
La loi pour une République numérique s’inscrit dans la même logique que le RGPD, quand elle renforce l’obligation faite à ceux qui déploient des algorithmes d’en informer les personnes concernées [3]. La loi pour une république numérique a été promulguée le 7 octobre 2016. Elle prépare le pays aux enjeux de la transition numérique et de l’économie de demain. Elle promeut l’innovation et le développement de l’économie numérique, une société numérique ouverte, fiable et protectrice des droits des citoyens. Elle vise également à garantir l’accès de tous, dans tous les territoires, aux opportunités liées au numérique [5]. Malgré ces différentes lois, la transparence devant l’IA est difficile quand on sait que les systèmes sont complexes et évolutifs. La technologie s’améliore au fil du temps. L’impact de l’IA sur le droit du travail ou le droit de la santé est une énigme à résoudre.
Dans le domaine de la santé, le respect de la vie privée est une préoccupation majeure. Plusieurs tests ont prouvé que l’application de l’IA dans le domaine de la santé rend celui-ci très vulnérable. Des attaques pirates sont fréquentes et peuvent exposer la vie de plusieurs personnes. Pour résoudre cela, certaines règlementations telles le RGPD ont introduit la clause de consentement et d’anonymat dans le recueil des données personnelles. Mais cette clause reste insuffisante car l’apprentissage automatique pourrait permettre de relier les données à un individu. C’est dire ici, toutes les limites qu’il y a par rapport à la protection des données personnelles.
IV. Responsabilité juridique des technologies de l’IA
Les progrès en matière d’internet, d’informatique et autres technologies sont croissants. De nos jours, les concepteurs se tournent plus vers la robotique et l’intelligence artificielle c’est-à-dire des machines capables de fonctionner de façon autonome et reproduit l’intelligence humaine. Dans le domaine, l’emploi de cette technologie se fait apercevoir. En effet, plusieurs domaines sont soumis à l’emploi de cette technologie. Du laboratoire à la radiologie en passant par la clinique, des algorithmes sont développés pour faciliter le diagnostic de la maladie. Mais, il faut noter l’absence d’une règlementation de ce domaine et l’absence de responsabilité des utilisateurs de cette technologie.
L’utilisation de robots et de l’IA n’avaient pas été soumise à une règlementation protégeant le bénéficiaire de cette technologie. Dans un souci de définir les responsabilités des utilisateurs de l’IA et des robots, le parlement européen a adopté une résolution sur les règles de droit civil en matière de robotique, assortie de recommandations à la Commission européenne en 2017. Il a par ailleurs demandé à la commission de proposer un instrument législatif sur les responsabilités des robots et de l’IA. Ainsi la commission a proposé dix points de responsabilité de cette technologie qui se décline comme ci-dessous :
1. L’exploitant d’une technologie autorisée mais comportant un risque accru de préjudice pour autrui, comme des robots pilotés par des IA dans des lieux publics, devrait être soumis à une responsabilité stricte pour les dommages résultant de son exploitation.
2. Lorsqu’un prestataire de services assurant le cadre technique nécessaire exerce un contrôle plus élevé que le propriétaire ou l’utilisateur d’un produit ou d’un service réel doté d’une IA, il faut en tenir compte pour déterminer qui exploite principalement la technologie.
3. L’utilisateur d’une technologie ne présentant pas de risque accru de préjudice pour autrui devrait néanmoins être tenu de respecter les obligations de sélectionner, d’exploiter, de surveiller et d’entretenir correctement la technologie utilisée et devrait être responsable du non-respect de ces obligations en cas de faute.
4. L’utilisateur d’une technologie dotée d’un certain degré d’autonomie ne devrait pas être moins responsable du préjudice qui en résulte que si ce préjudice avait été causé par un auxiliaire humain.
5. Les fabricants de produits ou de contenu numérique intégrant une technologie numérique émergente devraient être responsables des dommages causés par des défauts de leurs produits, même si le défaut résulte des modifications apportées au produit sous le contrôle du producteur après sa mise sur le marché.
6. Pour les situations exposant des tiers à un risque accru de préjudice, l’assurance responsabilité civile obligatoire pourrait donner aux victimes un meilleur accès à l’indemnisation et protéger les auteurs potentiels de délits contre le risque de responsabilité.
7. Lorsqu’une technologie particulière accroît les difficultés de prouver l’existence d’un élément de responsabilité au-delà de ce que l’on peut raisonnablement attendre, les victimes devraient avoir droit à une facilitation de la preuve.
8. Les technologies numériques émergentes devraient être dotées de fonctions d’enregistrement, lorsque les circonstances le justifient, et l’absence d’enregistrement ou d’accès raisonnable aux données enregistrées devrait entraîner un renversement de la charge de la preuve pour ne pas porter préjudice à la victime.
9. La destruction des données de la victime devrait être considérée comme un dommage, indemnisable dans des conditions spécifiques.
10. Il ne faut pas conférer une personnalité juridique aux dispositifs ou systèmes autonomes, car le préjudice qu’ils peuvent causer peut et doit être imputable à des personnes ou organismes existants [4].
Malgré ces recommandations de la commission européenne, il faut noter qu’une véritable règlementation n’est pas encore mise en place. Mais plusieurs rencontres ont déjà été tenues parmi lesquelles la Vème Conférence franco-japonaise d’éthique des sciences et de bioéthique sur la recherche médicale, qui s’est tenue à Toulouse du 24-26 mars 2011[5]. Des outils juridiques existent mais sont limités par rapport à l’emploi dont on fait de l’intelligence artificielle. Nous pouvons citer entre autres le droit des contrats, le droit de la consommation et le droit de la propriété intellectuelle[5] qui, somme toute permettent de réguler la production intellectuelle. Pour ce qui est du droit des contrats, la loi impose au vendeur professionnel l’obligation de délivrance et l’obligation de garantie. Concernant le droit de la propriété intellectuelle, des brevets d’invention sont couramment accordés dans le domaine de la robotique surtout les robots chirurgicaux. Mais la règlementation n’est pas stricte à ce niveau.
V. Conclusion









Bibliographie
1. https://fr.wikipedia.org/wiki/Intelligence_artificielle. In.
2. https://bluumi.net/intelligence-artificielle.
3. http://www.revue-banque.fr/risques-reglementations/article/intelligence-artificielle-vers-une-reglementation#desc-puce-nbp-11.
4. https://www.lecho.be/opinions/general/quel-regime-de-responsabilite-appliquer-a-l-intelligence-artificielle/10212045.html.
5. https://www.murielle-cahen.com/publications/robot.asp.

Re: Groupe II: Intelligence artificielle et la responsabilité juridique dans le domaine de la santé

par André MUTOMBO,
Bonsoir, demain à 10h on pourra enrichir de nouveau, en vue de finir et disposé d'un document final.
Merci

suite...

Bonsoir, demain à 10h on pourra enrichir de nouveau, en vue de finir et disposé d'un document final.
Merci

Re: Groupe II: Intelligence artificielle et la responsabilité juridique dans le domaine de la santé

par Momo Sami,
Validé, mais vous êtes invités à poursuivre et partager votre travail au plus tard demain 7h pour que les autres prennent connaissance. Ceux qui ont des amendements sur le ...

suite...

Validé, mais vous êtes invités à poursuivre et partager votre travail au plus tard demain 7h pour que les autres prennent connaissance. Ceux qui ont des amendements sur le travail que j'ai partagé peuvent le faire ici. Merci

Re: Groupe II: Intelligence artificielle et la responsabilité juridique dans le domaine de la santé

par LYDIE CHRISTINE ILBOUDO/OUEDRAOGO,
Proposition de conclusion
L’intelligence artificielle présente de belles opportunités pour l’amélioration de la qualité des soins. Néanmoins des efforts restent à fournir ...

suite...

Proposition de conclusion
L’intelligence artificielle présente de belles opportunités pour l’amélioration de la qualité des soins. Néanmoins des efforts restent à fournir en vue de protéger les données de santé de la population. En effet, aucune règlementation claire à ce jour n’encadre spécifiquement l’IA médicale. La responsabilité juridique quant à l’utilisation de nouveaux appareils et technologies est également en cour de réflexion.

Re: Groupe II: Intelligence artificielle et la responsabilité juridique dans le domaine de la santé

par LYDIE CHRISTINE ILBOUDO/OUEDRAOGO,
Egalement je ne retrouve pas la partie' IA en santé dont on avait discuté mercredi soir.'

suite...

Egalement je ne retrouve pas la partie' IA en santé dont on avait discuté mercredi soir.'

Re: Groupe II: Intelligence artificielle et la responsabilité juridique dans le domaine de la santé

par Momo Sami,
Tu veux parler de la partie 3? ou bien le site de l'OMS? voici le lien https://www.who.int/bulletin/volumes/98/4/20-020420/fr/

suite...

Tu veux parler de la partie 3? ou bien le site de l'OMS? voici le lien https://www.who.int/bulletin/volumes/98/4/20-020420/fr/

Re: Groupe II: Intelligence artificielle et la responsabilité juridique dans le domaine de la santé

par André MUTOMBO,
bonjour Sami,
C'est possible maintenant de mettre ici le travail avec sa partie de conclusion.
Pour voir s'il y aurait encore une idée à ajouter.
Merci

suite...

bonjour Sami,
C'est possible maintenant de mettre ici le travail avec sa partie de conclusion.
Pour voir s'il y aurait encore une idée à ajouter.
Merci

Re: Groupe II: Intelligence artificielle et la responsabilité juridique dans le domaine de la santé

par BASSOLE Balélé Ayélkoyila Honoré,
Les succès de l’intelligence artificielle dans le domaine de la santé ne doivent pas faire oublier qu’elle reste faillible. La question de la responsabilité en cas de ...

suite...

Les succès de l’intelligence artificielle dans le domaine de la santé ne doivent pas faire oublier qu’elle reste faillible. La question de la responsabilité en cas de dommage causé par l’IA ne doit par conséquent pas être négligée. Or, comme le note à juste titre un auteur, « quelle que puisse être l’utilité des chartes éthiques, le traitement des dommages causés par des machines intelligentes […] est et demeurera du ressort de la responsabilité civile ». Il convient dès lors de s’interroger sur la capacité de nos régimes actuels de responsabilité civile à indemniser de façon optimale les victimes de dommages causés par l’IA. Qu’en sera-t-il demain ? Une simple adaptation de nos principes juridiques actuels suffira-t-elle ?.Je pense que au niveau de l'introduction au niveau du problème posé il faut revoir cela. Ce n'est pas les machines qui vont répondre mais ceux qui mettent les machines en place

Re: Groupe II: Intelligence artificielle et la responsabilité juridique dans le domaine de la santé

par Momo Sami,
Je viens de vous partager la dernière version du travail par mail. Je vous invite à une prompte réaction pour que l'on puisse poster. Merci à vous et courage pour la suite

suite...

Je viens de vous partager la dernière version du travail par mail. Je vous invite à une prompte réaction pour que l'on puisse poster. Merci à vous et courage pour la suite