Mais l'IA appliquée au diagnostic médical produit aussi "des résultats basés d'une part sur des approches qui peuvent être probabilistes et d'autre part peuvent être entachés d'erreurs", alertent-ils.
Elle suggère en outre une transformation de la relation entre médecins et patients et ouvre de nombreuses questions, éthiques notamment, sur l'avenir des systèmes de santé, avec "des enjeux hétérogènes voire parfois contradictoires, entre intérêts économiques et industriels, promesses thérapeutiques pour les patients, modification de la pratique professionnelle des personnels de santé concernés et objectifs de régulation pour les autorités publiques", estiment les deux comités.
Dans ce contexte, "le contrôle de conformité du système d'IA, qui assure qu'il n'est pas dangereux et ainsi autorise sa mise sur le marché, doit être amélioré et surtout, doit à l'avenir être accompagné d'une évaluation (...) montrant non seulement son absence de nocivité mais aussi qu'il contribue efficacement au principe de bienfaisance", plaident-ils.