Applications en santé : constats et pistes de solutions pour des outils plus fiables
Une nouvelle étude révèle que les applications alimentées par l’intelligence artificielle (IA) qui permettent d’obtenir un diagnostic médical par un simple clic s’appuient souvent sur des données biaisées et une réglementation déficiente. L’utilisateur risque alors d’obtenir des conseils inexacts et dangereux pour sa santé.
Une équipe de recherche de l’Université º£ÍâÖ±²¥bÕ¾ a voulu tester deux applications types largement utilisées en leur soumettant des symptômes tirés de cas médicaux authentiques. Les , publiés dans le Journal of Medical Internet Research, indiquent que les applications ont parfois posé des diagnostics exacts, mais que, souvent, elles n’ont pas réussi à détecter des maladies graves. Ces failles auraient pu retarder la mise en route du traitement.
L’équipe a dégagé deux grands problèmes dans les applications testées : des données biaisées et un manque de réglementation.
Les biais et le phénomène de la boîte noire
L’expression « à données inexactes, °ùé²õ³Ü±ô³Ù²¹³Ù²õ erronés » définit bien la notion de biais dans le présent contexte.
« Ces applications s’abreuvent à des ensembles de données biaisées qui ne reflètent pas fidèlement diverses populations », explique Ma’n H. Zawati, auteur principal et professeur agrégé au Département de médecine de l’Université º£ÍâÖ±²¥bÕ¾.
Comme les données qui alimentent ces applications sont fournies par des utilisateurs de téléphones intelligents, elles ont tendance à exclure les personnes à faible revenu. Elles ne représentent pas non plus une diversité de races et d’origines ethniques, ajoutent les auteurs. S’ensuit un cercle vicieux où les applications utilisent les données d’un groupe restreint d’utilisateurs, et fournissent des °ùé²õ³Ü±ô³Ù²¹³Ù²õ biaisés et des conseils médicaux potentiellement malavisés.
Les applications renferment souvent des mises en garde indiquant qu’elles ne fournissent pas de conseils médicaux. Toutefois, l’auteur de l’étude précise que les utilisateurs n’interprètent pas toujours bien ces mises en garde, et encore faut-il qu’ils les lisent.
Le deuxième problème est le concept de « boîte noire » associé aux systèmes d’IA, environnement où la technologie fait son œuvre à l’abri d’une véritable surveillance humaine. Pour le Pr Zawati, ce manque de transparence peut même empêcher le développeur de bien comprendre comment son application tire ses conclusions.
« Sans réglementation précise, les développeurs n’ont aucune obligation de reddition de compte. Par conséquent, les médecins ne sont pas enclins à recommander ces outils », ajoute le Pr Zawati, qui est également membre associé au Département d’équité, d’éthique et de politiques et à la Faculté de droit de l’Université º£ÍâÖ±²¥bÕ¾, et directeur de recherche du Centre de génomique et politiques au Département de génétique humaine de º£ÍâÖ±²¥bÕ¾. « Les utilisateurs courent donc le risque d’obtenir un diagnostic erroné. »
Un appel à la surveillance
Pour repousser les limites des applications, le chercheur suggère aux développeurs d’entraîner les applications au moyen de données plus diversifiées, de procéder à des vérifications fréquentes pour détecter les biais, d’accroître la transparence pour permettre une meilleure compréhension du fonctionnement des algorithmes et de faire jouer un plus grand rôle à l’humain dans la prise de décisions.
« Moyennant une conception réfléchie et une surveillance rigoureuse, les applications santé alimentées par l’IA pourraient faciliter l’accès aux soins et devenir des outils précieux en milieu clinique. »
Cette recherche a été financée par le Fonds de recherche du Québec.
³¢â€™Ã©t³Ü»å±ð
L’article « », par Ma’n