L'intelligence artificielle (IA) générative pourrait révolutionner les soins de santé en facilitant par exemple la mise au point de médicaments ou en accélérant le dépistage de maladies, mais l'OMS estime qu'il faut faire plus attention aux risques et publie une série de recommandations.
Dans un document publié jeudi, l'Organisation mondiale de la santé analyse les dangers et les avantages de l'utilisation des grands modèles multimodaux (dits LMM) - un type de technologie d'IA générative à croissance rapide - en matière de santé.
Ces LMM peuvent utiliser plusieurs types de données, y compris du texte, des images et des vidéos, et générer des résultats qui ne sont pas limités au type de données introduites dans l'algorithme.
"On prévoit que les LMM seront largement utilisés et appliqués dans les soins de santé, la recherche scientifique, la santé publique et la mise au point de médicaments", indique l'OMS.
L'organisation définit cinq domaines qui pourrait utiliser cette technologie : le dépistage, par exemple pour répondre aux demandes écrites des patients; la recherche scientifique et le développement de médicaments; l'enseignement médical et infirmier; les tâches administratives; et l'usage par les patients, par exemple pour l'examen des symptômes.
Bien que cette technologie présente un grand potentiel, l'OMS souligne qu'il a aussi été montré que ces LMM peuvent produire des résultats faux, inexacts, biaisés, ou incomplets, ce qui pourrait évidemment avoir des conséquences fâcheuses.
"Alors que les LMM sont de plus en plus utilisés dans les soins de santé et la médecine, les erreurs, les mauvais usages et, en fin de compte, les préjudices causés aux individus sont inévitables", relève l'OMS.
Principales recommandations
Les nouvelles orientations de l’OMS comportent une série de recommandations aux gouvernements, à qui il revient en premier lieu de définir des normes pour la mise au point et le déploiement des LMM et leur intégration et utilisation à des fins médicales ou de santé publique. Par exemple, les gouvernements devraient :
- Investir dans les infrastructures à but non lucratif ou publiques auxquelles les développeurs des secteurs public, privé ou à but non lucratif ont accès – notamment la puissance de calcul et les bases de données publiques – ou les mettre à disposition, en veillant à ce que les utilisateurs qui y accèdent adhèrent à certains principes et valeurs éthiques.
- S’appuyer sur la législation, les politiques et la réglementation pour garantir que les LMM et les applications utilisées en santé et en médecine, indépendamment des risques ou des avantages associés à la technologie d’IA en question, respectent des obligations éthiques et des normes en matière de droits humains, notamment sur la dignité et l’autonomie des personnes ou le respect de la vie privée.
- Confier à un organisme de réglementation, nouveau ou existant, la responsabilité d’évaluer et d’approuver les LMM et les applications destinées à un usage en santé ou en médecine, en fonction des ressources disponibles.
- Mettre en place des dispositifs obligatoires d’audit et d’évaluation d’impact par des tiers indépendants, notamment en matière de protection des données et de droits humains, lorsqu’un LMM est déployé à grande échelle. Ces audits et études d’impact doivent être publiés et présenter les résultats et les impacts en les ventilant par type d’utilisateur (par exemple selon l’âge, la race ou le handicap).
Les orientations contiennent également plusieurs grandes recommandations à l’intention des développeurs de LMM, qui doivent veiller à ce que :
- Les LMM ne soient pas conçus uniquement par des scientifiques et des ingénieurs. Les utilisateurs potentiels ainsi que l’ensemble des parties prenantes directes et indirectes (y compris les prestataires médicaux, les chercheurs scientifiques, les professionnels de la santé et les patients) doivent prendre part à la mise au point des IA dès les premiers stades, selon des modalités structurées, inclusives et transparentes, et avoir la possibilité de soulever des questions éthiques, de faire part de leurs préoccupations et à faire des observations sur l’application d’IA en question.
- Les LMM soient conçus pour exécuter des tâches bien précises avec le niveau de précision et de fiabilité requis pour améliorer la capacité des systèmes de santé et promouvoir les intérêts des patients. Les développeurs doivent également être en mesure de prévoir et de comprendre les conséquences indirectes potentielles de ces systèmes.
> Découvrir les nouvelles lignes directrices de l'OMS
Lire aussi: Comment fonctionne ChatGPT et quelles applications dans la santé?