IA et données de santé : enjeux de sécurité

Le développement de l’intelligence artificielle dans le secteur de la santé s’accompagne d’exigences de sécurité extrêmement strictes. Données médicales sensibles, risques de fuite, conformité RGPD/HDS, transparence des modèles, souveraineté numérique : pour garantir une IA fiable et conforme, les organisations doivent adopter une approche de sécurité renforcée à chaque étape du cycle de vie du modèle.

 

Pourquoi l’IA appliquée aux données de santé exige un niveau de sécurité maximal ?

Les données de santé figurent parmi les informations les plus sensibles du RGPD. Elles contiennent des informations sur l’état de santé d’un individu, son diagnostic, ses traitements, ses antécédents…
Appliquées à des modèles d’IA, elles nécessitent un niveau de protection encore plus élevé.

 

3 raisons majeures qui renforcent les exigences

  1. La sensibilité des données médicales : une fuite de données impacte directement la vie privée des patients.

  2. Les risques d’apprentissage non intentionnel : un modèle IA peut mémoriser des données privées si l’environnement n’est pas contrôlé.

  3. L’usage croissant de l’IA en diagnostic, prédiction ou priorisation : les erreurs ou biais peuvent avoir des impacts cliniques.

L’IA doit donc être hébergée et entraînée dans un environnement certifié, souverain et auditable.

 


 

Les principaux risques de sécurité liés à l’IA en santé

1. Fuites ou exfiltration de données

Une IA mal sécurisée peut :

  • mémoriser des données patients,

  • être interrogée pour révéler des informations sensibles,

  • être exposée sur des API non protégées.

 

2. Vulnérabilités dans les pipelines d’entraînement

Un pipeline IA contient souvent :

  • données brutes,

  • données prétraitées,

  • modèles intermédiaires,

  • logs d’entraînement,

  • checkpoints.

 

Tous ces éléments peuvent contenir des traces de données sensibles.

 

3. Attaques sur les modèles (ML Security)

  • attaques par inversion de modèle,

  • extraction de modèle,

  • empoisonnement de données,

  • attaques par inférence.

 

4. Risques juridiques liés au Cloud Act

Si une IA est hébergée par un fournisseur soumis à des lois extraterritoriales, les données de santé peuvent être exposées malgré le chiffrement.

 

5. Risques de biais et d’explicabilité

Les IA médicales doivent être auditées pour garantir :

  • absence de biais discriminants,

  • explicabilité des décisions,

  • conformité à l’ISO 42001 (IA de confiance).

 


 

Qu’impose la réglementation pour sécuriser l’IA en santé ?

RGPD

Pour l’IA en santé, le RGPD impose :

  • une analyse d’impact (AIPD/PIA),

  • minimisation des données,

  • base légale solide,

  • traçabilité complète,

  • contrôle des accès,

  • documentation du modèle.

 

HDS

L’hébergement des données de santé utilisées par l’IA doit être :

  • certifié HDS,

  • audité,

  • situé en France,

  • conforme à l’ANS,

  • cloisonné et chiffré.

 

ISO 42001 (IA Management System)

La norme en cours de généralisation impose :

  • gouvernance IA,

  • maîtrise des risques IA,

  • transparence et explicabilité,

  • gestion des biais,

  • auditabilité du modèle.

 

NIS2

Les environnements impactant des infrastructures essentielles doivent répondre à :

  • résilience,

  • supervision,

  • réponse à incident,

  • PRA/PCA.

 

L’IA médicalisée entre pleinement dans ce périmètre.

 


 

Les bonnes pratiques pour sécuriser l’IA utilisant des données de santé

1. Utiliser un cloud souverain et certifié HDS

Un environnement souverain garantit :

  • absence de lois extraterritoriales,

  • support français,

  • auditabilité,

  • traçabilité.

 

2. Isoler et segmenter les environnements IA

  • développement / entraînement / production séparés,

  • pas de données brutes en environnement de dev,

  • tokens d’API rotationnés et chiffrés.

 

3. Chiffrement systématique

  • données, modèles, checkpoints, logs

  • chiffrement géré sur le cloud souverain (pas chez un tiers)

 

4. Journalisation et supervision IA

  • logs complets,

  • monitoring en temps réel,

  • SIEM,

  • alertes de comportement anormal.

 

5. Utiliser des données minimisées ou pseudonymisées

L’IA ne doit manipuler que les données strictement nécessaires.

 

6. Contrôler les sorties du modèle

Particulièrement pour :

  • modèles génératifs,

  • assistants internes,

  • RAG.

 


 

Cas d’usage : quand sécuriser l’IA est obligatoire ?

Exemples concrets

  • diagnostic assisté par IA,

  • pré-tri des urgences,

  • analyse prédictive,

  • interprétation d’examens médicaux,

  • assistants IA pour médecins,

  • extraction automatique sur documents de santé,

  • RAG analysant des dossiers patients,

  • algorithmes de priorisation ou scoring.

 

Tous ces usages impliquent impérativement un environnement HDS + souverain + RGPD.

La combinaison IA + données de santé impose un niveau de sécurité très supérieur à celui des applications traditionnelles. Confidentialité, souveraineté, conformité, explicabilité, traçabilité : chaque étape doit être maîtrisée. Utiliser un cloud souverain certifié HDS permet de construire des IA fiables, conformes, auditées et adaptées aux usages sensibles.