L’ordinateur sait quand vous allez mourir
Publié le 04/07/2018 par Etienne Wery
L’ordinateur prédit l’évolution médicale d’une personne hospitalisée, y compris sa mort. Il se fonde sur les données médicales à sa disposition. Problème : il est le plus souvent impossible au médecin de déterminer la raison pour laquelle l’ordinateur prédit cela, tout en sachant qu’il a raison dans 90% des cas …
Le machine learning
L’apprentissage automatique (en anglais machine learning) est un champ d’étude de l’intelligence artificielle qui concerne la conception, l’analyse, le développement et l’implémentation de méthodes permettant à une machine (au sens large) d’évoluer par un processus systématique, et ainsi de remplir des tâches difficiles ou problématiques par des moyens algorithmiques plus classiques. (Wikipedia)
En version simple : le machine learning vise les algorithmes auto-apprenants. A la manière du cerveau humain, ces algorithmes tirent des leçons du passé, collectent des informations et corrigent eux-même leur mode de fonctionnement, afin d’être plus performants la prochaine fois.
L’algorithme simple est celui qui applique une recette.
L’algorithme issu du machine learning est au départ un algorithme simple, mais ensuite il auto-évolue (on ne le reprogramme donc pas) en se fondant sur l’analyse de données ou l’expérience empirique.
Cette personne va mourir !
Quatre prestigieuses universités US se sont associés à Google pour effectuer un test sidérant.
Les chercheurs de la University of Chicago, Stanford University, University of California, University of San Francisco ont injecté dans un puissant ordinateur, les données (anonymisées) de quelques 216.000 patients hospitalisés pendant au moins 24 heures.
La machine a converti ces données en 46 milliards d’éléments informationnels reliés entre eux, en ce compris des informations dites déstructurées (par exemple une note prise au vol par un médecin en interrogeant un patient).
L’algorithme auto-apprenant a ensuite traité ces données et a créé quatre catégories de patients :
- Ceux qui vont mourir lors de l’hospitalisation ;
- Ceux dont l’hospitalisation sera prolongée au-delà de ce qui est prévu lors de l’admission ;
- Ceux qui sortiront à date prévue mais seront réadmis de façon imprévue lors des 30 prochains jours ;
- Ceux qui sortiront de cet episode sans autre complication.
Pour chaque catégorie, les chercheurs ont comparé le résultat prédictif de l’ordinateur à ce qui s’est réellement passé.
Résultat : une fiabilité supérieure à 90%.
En d’autres termes : l’algorithme auto-apprenant a réussi, dans 90% des cas, à prévoir ce qui allait se passer – en ce compris la mort du patient – alors que le corps médical est incapable de faire la même chose.
Devant ce résultat sidérant, les chercheurs ont poussé l’expérience plus loin : ils ont revu le dossier médical en ayant la prédiction en tête, dans le but de comprendre ce qui a permis à l’ordinateur de prévoir le résultat. Ils … n’y sont pas parvenus.
“With extraordinary accuracy, these algorithms were able to predict and diagnose diseases, from cardiovascular illnesses to cancer, and predict related things such as the likelihood of death, the length of hospital stay, and the chance of hospital readmission. Within 24 hours of a patient’s hospitalization, for example, the algorithms were able to predict with over 90% accuracy the patient’s odds of dying. These predictions, however, were based on patterns in the data that the researchers could not fully explain.”
L’ordinateur prédit l’évolution médicale, dont la mort. Il se fonde sur les données médicales de la personne pour effectuer cette prédiction. Problème : il est le plus souvent impossible au médecin de déterminer la raison pour laquelle l’ordinateur prédit cela, tout en sachant qu’il a raison dans 90% des cas …
Des enjeux juridiques et éthiques
Des systèmes existent déjà qui permettent pour quelques dizaines d’euros d’obtenir son propre séquençage ADN. Imaginons que ceci soit injecté dans un tel algorithme. L’odinateur va-t-il prévoir X années à l’avance la date de la mort ? Va-t-il calculer la dépendance avant qu’elle arrive ? Va-t-il pronostiquer la maladie alors que ses premiers symptomes ne se sont pas encore manifestés ?
Plusieurs personnes plaident pour une interdiction totale des « algorithmes non explicables » (non-explainable algorithms) dans certains secteurs, tels la santé.
D’autres plaident pour un encadrement éthique.
Ce qui est certain, c’est que le sujet (et l’intelligence artificielle au sens large) va encore faire parler de lui …
Plus d’infos ?
L’info de Harvard.
L’info des universités US.