Quelle éthique pour l'intelligence artificielle en santé ?

Temps de lecture : 2 minutes

Comment garantir une éthique pour l’intelligence artificielle liée à la santé ?

L’éthique est le grand questionnement lié à l’intelligence artificielle, et tout particulièrement dans le domaine de la santé. En effet, quelle est la légitimité de l’algorithme dans les décisions médicales avec tout ce qu’elles impliquent ? Faut-il vraiment permettre à l’intelligence artificielle d’avoir tout le pragmatisme dont elle est capable ? La question se pose notamment dans la prise de décisions pour des opérations lourdes. La question principale dans la médecine, et donc appliquée aux IA dans le domaine médical, est celle de la balance bénéfice-risque.

La balance bénéfice-risque, nous y avons beaucoup été confrontés ces derniers temps. Il s’agit de prendre en compte tous les facteurs englobant un choix médical. Ainsi, on se rapproche le plus possible du pragmatisme nécessaire pour prendre une décision importante.

Une IA compréhensible et explicable.

Il faut s’assurer, dès sa conception, qu’une intelligence artificielle fait les bons choix. Ainsi, le data scientist doit la diriger dans des choix et des décisions morales. Cela se fait également dans le domaine de l’éthique liée aux intelligences artificielles. En effet, la question démarre au moment même où l’IA va intervenir dans les décisions liées à l’humain. Prise en charge médicale, embauche ou accès à un crédit.

Dans le domaine de la santé, il est primordial que les IA utilisées soient compréhensibles et explicables. En effet, quand il est question de santé et donc de décisions sensibles, il est difficile d’accepter l’usage de technologies que l’on ne comprend pas.

Protection de la vie privée et des données médicales.

En médecine, une des règles d’éthique principales, est de soigner toute personne nécessitant une intervention médicale. C’est sur ce principe que doivent se baser les intelligences artificielles médicales. Protéger les données et empêcher tous types de biais stéréotypés est d’une importance cruciale pour assurer la performance des IAM

Le monde de la santé regorge d’une quantité importante de données sensibles. Ces données relatives à la vie privée nécessitent une protection élevée. C’est pourquoi la CNIL encadre les avancées faites autour du numérique dans la santé. Pour ce faire, le RGPD (Règlement Général sur la Protection des Données) est entré en application le 25 mai 2018. L’objectif de ce règlement est de protéger les utilisateurs et d’encadrer l’utilisation des données. Ainsi, il garantit un usage éthique de l’intelligence artificielle dans la santé.

« Protéger les données personnelles, accompagner l’innovation, préserver les libertés individuelles »

Éthique et intelligence artificielle, des notions indissociables.

En Europe, le parlement est le premier du monde à s’attaquer aux législations liées à l’éthique dans les intelligences artificielles. Si une chose a été soulignée lors des pourparlers, c’est la priorisation des droits de l’humain face à la course au progrès. Afin de garantir un développement éthique du numérique, l’Union Européenne, soucieuse sur bien d’autres aspects du web, s’attelle à mettre en place des moyens de confiance afin de développer des règles encadrant les usages des intelligences artificielles.

Aujourd’hui, il y a des sites très explicites et des dilemmes moraux très pertinents sur les choix qu’une intelligence artificielle se doit de faire. En partant sur l’idée de la voiture automatique, le site Moral Machine s’amuse à proposer aux humains quelques uns des millions de choix qu’une IA peut aujourd’hui faire.

Ainsi, depuis l’élaboration de l’idée de l’intelligence artificielle jusqu’à aujourd’hui, tous les domaines s’appliquent activement dans les recherches liées à ce nouveau pilier révolutionnaire.

Inscrivez vous à notre newsletter

You have been successfully Subscribed! Ops! Something went wrong, please try again.