Le développement de l’intelligence artificielle dans le secteur de la santé s’accompagne d’exigences de sécurité extrêmement strictes. Données médicales sensibles, risques de fuite, conformité RGPD/HDS, transparence des modèles, souveraineté numérique : pour garantir une IA fiable et conforme, les organisations doivent adopter une approche de sécurité renforcée à chaque étape du cycle de vie du modèle.
Les données de santé figurent parmi les informations les plus sensibles du RGPD. Elles contiennent des informations sur l’état de santé d’un individu, son diagnostic, ses traitements, ses antécédents…
Appliquées à des modèles d’IA, elles nécessitent un niveau de protection encore plus élevé.
La sensibilité des données médicales : une fuite de données impacte directement la vie privée des patients.
Les risques d’apprentissage non intentionnel : un modèle IA peut mémoriser des données privées si l’environnement n’est pas contrôlé.
L’usage croissant de l’IA en diagnostic, prédiction ou priorisation : les erreurs ou biais peuvent avoir des impacts cliniques.
L’IA doit donc être hébergée et entraînée dans un environnement certifié, souverain et auditable.
Une IA mal sécurisée peut :
mémoriser des données patients,
être interrogée pour révéler des informations sensibles,
être exposée sur des API non protégées.
Un pipeline IA contient souvent :
données brutes,
données prétraitées,
modèles intermédiaires,
logs d’entraînement,
checkpoints.
Tous ces éléments peuvent contenir des traces de données sensibles.
attaques par inversion de modèle,
extraction de modèle,
empoisonnement de données,
attaques par inférence.
Si une IA est hébergée par un fournisseur soumis à des lois extraterritoriales, les données de santé peuvent être exposées malgré le chiffrement.
Les IA médicales doivent être auditées pour garantir :
absence de biais discriminants,
explicabilité des décisions,
conformité à l’ISO 42001 (IA de confiance).
Pour l’IA en santé, le RGPD impose :
une analyse d’impact (AIPD/PIA),
minimisation des données,
base légale solide,
traçabilité complète,
contrôle des accès,
documentation du modèle.
L’hébergement des données de santé utilisées par l’IA doit être :
certifié HDS,
audité,
situé en France,
conforme à l’ANS,
cloisonné et chiffré.
La norme en cours de généralisation impose :
gouvernance IA,
maîtrise des risques IA,
transparence et explicabilité,
gestion des biais,
auditabilité du modèle.
Les environnements impactant des infrastructures essentielles doivent répondre à :
résilience,
supervision,
réponse à incident,
PRA/PCA.
L’IA médicalisée entre pleinement dans ce périmètre.
Un environnement souverain garantit :
absence de lois extraterritoriales,
support français,
auditabilité,
traçabilité.
développement / entraînement / production séparés,
pas de données brutes en environnement de dev,
tokens d’API rotationnés et chiffrés.
données, modèles, checkpoints, logs
chiffrement géré sur le cloud souverain (pas chez un tiers)
logs complets,
monitoring en temps réel,
SIEM,
alertes de comportement anormal.
L’IA ne doit manipuler que les données strictement nécessaires.
Particulièrement pour :
modèles génératifs,
assistants internes,
RAG.
diagnostic assisté par IA,
pré-tri des urgences,
analyse prédictive,
interprétation d’examens médicaux,
assistants IA pour médecins,
extraction automatique sur documents de santé,
RAG analysant des dossiers patients,
algorithmes de priorisation ou scoring.
Tous ces usages impliquent impérativement un environnement HDS + souverain + RGPD.
La combinaison IA + données de santé impose un niveau de sécurité très supérieur à celui des applications traditionnelles. Confidentialité, souveraineté, conformité, explicabilité, traçabilité : chaque étape doit être maîtrisée. Utiliser un cloud souverain certifié HDS permet de construire des IA fiables, conformes, auditées et adaptées aux usages sensibles.