L'intelligence artificielle (IA) est définie dans l'encyclopédie Larousse comme “un ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence”. Il s'agit d'un sujet vaste et fascinant, présentant de multiples facettes, prometteuses, suscitant de nombreux espoirs, mais pouvant également être beaucoup plus inquiétantes, soulevant de nombreuses interrogations sur le plan éthique et allant jusqu'à poser la question du devenir de l'espèce humaine.
Stephen Hawking, célèbre physicien britannique disparu en mars dernier, avait d'ailleurs prédit que les machines finiraient un jour par dominer les humains comme nous l'avons fait par le passé avec d'autres espèces animales jugées “inférieures”… Tous ces questionnements ont été largement exploités depuis une cinquantaine d'années par l'industrie cinématographique et par l'industrie du jeu vidéo, dans des scénarios qui relèvent pour le moment de la science-fiction et qui appartiennent au domaine du divertissement.
Croire que l'IA est un phénomène de mode qui va s'estomper dans les années à venir serait probablement une erreur. En effet, il s'agit d'un sujet dont les scientifiques et les informaticiens se sont emparés depuis les années 1950, période à laquelle le mathématicien anglais Alan Turing, reconnu comme un des pionniers en la matière, avait émis l'hypothèse qu'une machine pouvait avoir une “conscience”. Il a d'ailleurs imaginé un test dont le but était de savoir si un humain, au cours d'une conversation “à l'aveugle”, était capable d'identifier la nature de son interlocuteur (homme ou machine).
L'exploitation des évolutions technologiques, en particulier dans le domaine de l'informatique et de la communication, a permis de mettre au point des systèmes de plus en plus complexes et performants. Parmi les symboles les plus marquants et connus du grand public, on citera les IA conçues par le géant américain de l'informatique IBM, tout d'abord avec Deep Blue dans les années 1990, qui s'était mesuré au champion du monde d'échecs, Garry Kasparov. Deux décennies plus tard, en 2011, le fruit de l'évolution de cette IA, nommé Watson, bat les meilleurs joueurs humains du célèbre jeu télévisé américain “Jeopardy!” (jeu dans lequel le candidat, à partir d'une réponse nommée “indice”, doit deviner la question correspondante). Cette performance fut bien plus impressionnante que celle de Deep Blue, dans la mesure où, au-delà de “l'intelligence” et de la capacité à “raisonner”, Watson devait présenter une excellente maîtrise du langage naturel. Cela pourrait paraître anecdotique, si Watson n'avait pas aujourd'hui l'ambition de devenir un acteur majeur dans le milieu médical, aussi bien dans le domaine du soin que de la recherche biomédicale.
En effet, les technologies d'informatique et de communication se sont immiscées dans le domaine médical depuis de nombreuses années et ont donné naissance à des “vagues” que l'on a successivement appelées la “médecine 2.0”, expression décrivant la place grandissante d'Internet dans la pratique médicale et ses conséquences sur la relation médecin-malade, le médecin devant de plus en plus souvent faire face à un “patient informé” ; puis la “médecine 3.0”, que nous vivons actuellement avec l'arrivée des applications pour Smartphones et objets connectés dans la pratique médicale (cette vague a également donné naissance à de nombreuses expressions telles que “e-médecine”, “e-santé”, médecine ou santé “connectée”, dont la définition exacte n'est d'ailleurs pas consensuelle). La plupart des experts prédisent pour les années à venir l'arrivée d'une vague dite “médecine 4.0”, qui correspondra à la place de plus en plus importante que vont prendre les machines (et donc l'IA) dans notre pratique quotidienne.
Les dispositifs d'IA les plus susceptibles de trouver leur place dans notre pratique médicale, à court terme, sont les dispositifs dits d'“IA faible”. Ces dispositifs sont dotés de la capacité de comprendre des problématiques et d'y répondre, tout en restant focalisés sur une tâche précise.
Dans la vie quotidienne, ces applications se retrouvent déjà dans les assistants personnels de la plupart de nos Smartphones (Siri chez Apple, Google Assistant, Alexa chez Amazon, etc.). Ces IA ont en revanche des capacités d'apprentissage limitées à ce que l'humain est capable de leur fournir par le biais d'un modèle prédéfini, et sont peu compétentes pour répondre à des problématiques qui ne leur ont pas été présentées au préalable.
Dans notre pratique, ces IA pourraient apporter une aide précieuse pour analyser et traiter de grandes quantités de données médicales (observations médicales par le biais de la reconnaissance du langage naturel, données d'imagerie, données biologiques), dans le but d'aider à poser un diagnostic, accélérer ou optimiser la prise en charge du patient, etc.
Pour illustrer ces propos, nous pouvons citer Therapixel (therapixel.com), une start-up française qui a mis au point une IA capable d'analyser automatiquement une mammographie, et de déceler précocement une lésion maligne avec une meilleure rentabilité qu'une interprétation faite à l'œil nu par un radiologue.
Un autre travail, publié cette année dans la revue Cell (1), montre qu'une IA est efficace pour interpréter les données d'une OCT (Optical Coherence Tomography) maculaire en identifiant des images normales ou en proposant un diagnostic parmi 3 grandes pathologies fréquemment rencontrées en ophtalmologie (drusen, maculopathie diabétique ou néovascularisation maculaire).
En neurologie, de nombreuses applications ont été imaginées et ont fait l'objet de publications (2, 3). Des modèles ont été suggérés pour prédire le risque d'évolution vers la maladie d'Alzheimer chez un patient présentant un trouble cognitif léger, prédire l'évolution des capacités cognitives chez des patients atteints d'une sclérose en plaques à un stade précoce, la sévérité d'une maladie de Parkinson, ou bien le pronostic fonctionnel lors de la survenue d'un accident vasculaire cérébral à la phase aiguë. Dans le cadre de la recherche, ces IA ont également un potentiel intéressant, car elles permettent d'analyser des quantités de données très importantes (la notion de “big data” a émergé au cours des dernières années pour désigner la très grande quantité de données que l'on peut actuellement collecter par l'intermédiaire des Smartphones, objets connectés, etc.) et pourraient ouvrir la possibilité à une médecine personnalisée en identifiant des facteurs prédictifs de la réponse à certaines thérapeutiques, par exemple.
À plus long terme, la question la plus sensible qui se pose est de savoir si nous devrons composer avec des dispositifs dits d'“IA forte”, c'est-à-dire des machines capables d'accéder à la pensée, d'apprendre de manière indépendante de nouveaux schémas ou processus, et même d'adapter leurs méthodes d'apprentissage en fonction de leur expérience. Si cela devenait possible, alors nous nous rapprocherions des prédictions inquiétantes émises par certains experts. Deux principales problématiques restent cependant en suspens. La première est purement technique. Les opinions d'experts divergent, mais tendent globalement à dire que les supports informatiques actuels, malgré leurs performances de calcul, ne seront pas en mesure d'accéder à ce niveau d'intelligence. Cette limite, cependant, pourrait être levée dans les années à venir grâce à l'informatique quantique (une évolution majeure de la base de fonctionnement des processeurs informatiques qui permettrait d'en démultiplier la puissance de calcul). La deuxième, particulièrement sensible dans le domaine médical, renvoie à des questions d'ordre moral et éthique. Quand bien même une machine serait capable d'effectuer le travail d'un humain, sera-t-on prêt à faire de la médecine une discipline purement “technique”, dans le but d'obtenir une prise en charge rapide, efficace, fiable, accessible à tous les territoires, 24 heures sur 24 et 7 jours sur 7 ? Le prix à payer serait alors de sacrifier la dimension humaine de la relation médecin-patient…
En attendant ce scénario dont la survenue reste heureusement incertaine, la meilleure attitude pour la communauté médicale reste probablement de considérer sérieusement cette problématique et de travailler conjointement avec le monde des technologies pour donner à ce nouvel outil une place raisonnée et pertinente pour améliorer et faciliter notre pratique.