Intelligence Artificielle

Sécurisation et gouvernance de l’Intelligence Artificielle

Objectifs de la formation

  • Comprendre les vulnérabilités des systèmes d’IA et les techniques pour les protéger.
  • Comprendre les enjeux de sécurisation des systèmes IA dans des environnements industriels et organisationnels, ainsi que les spécificités liées à la protection des modèles génératifs.
  • Tirer parti des capacités de l’IA pour renforcer la défense des systèmes d'information.
  • Explorer les différentes formes d’utilisation malveillante de l’IA, des contenus frauduleux aux attaques physiques sur systèmes connectés, et apprendre à détecter et contrer ces menaces.


Programme de la formation

Introduction aux menaces et vulnérabilités des modèles IA (ML/DL)

  • Introduction historique, vocabulaire, dates clefs :
    • Évolution de l'IA et du Machine Learning : des premiers algorithmes aux modèles avancés.
    • Histoire des cyberattaques sur l’IA : des premières vulnérabilités aux menaces modernes.
    • Différenciation des modèles : Machine Learning, Deep Learning, Reinforcement Learning, IA Générative.
  • Attaques par empoisonnement, évasion ou exfiltration. Vocabulaire essentiel.

Vulnérabilité des pipelines IA

  • Surface d’attaque (modèle, données, cible). Cas particulier des IA dites « de capteurs »/embarquées.
  • Différences selon le type d’accès au modèle (boîte blanche vs boîte noire).
  • Lexique plus avancé : Data poisoning, Model inversion, Membership inference, Adversarial attacks…
  • Étude (no-code) de cas réels/historiques.

Méthodes générales de sécurisation

  • Contrôle des données d’entrée. Régularisation des modèles.
  • Confidentialité différentielle et techniques de préservation de la vie privée.

Zoom technique sur l’attaque et la défense des modèles d’IA

  • Techniques d’attaque :
    • Adversarial Attacks : attaques générées par IA contre IA. Propriétés des réseaux de neurones importantes dans les mécanismes d’attaque/défense. Description technique des attaques FGSM, PGD et CW.
    • Attaques sur la propriété intellectuelle : Model Stealing : extraction des modèles depuis des API publiques. Suppresion de watermarking (traité après la partie associée dans Stratégies de défense).
    • Retour sur le data poisoning
  • Stratégies de défense :
    • Gradient Masking, détection des intrusions, techniques de robustesse IA.
    • Sécurisation des API de modèles ML (rate limiting, monitoring, validation des inputs). Watermarking.
    • Atelier pratique : implémentation guidée d’une attaque adversariale sur un (petit) modèle d’image en utilisant un framework de Deep Learning standard.

Sécurisation des modèles génératifs

  • Risques liés aux IA génératives
    • Prompt Injection Attacks exploitant les failles du prompt engineering, jailbreak, manipulation d’outputs.
    • Fuites de données d’entraînement (inversion, exfiltration).
    • Risques liés au Model Context Protocol.
  • Méthodes de protection
    • Watermarking des modèles, détection de prompts malveillants.
    • Mécanismes de filtrage automatiques (ex. OpenAI Moderation API, RLHF).
  • Études de cas pratiques
    • Analyse d’un jailbreak prompt, stéganographie et évaluation des solutions de défense.
    • Vulnérabilités dans des implémentations MCP.

Sécurité opérationnelle et cybersécurité industrielle

  • Attaques sur infrastructures critiques :
    • Vulnérabilités SCADA/IoT : Stuxnet, détournement de capteurs industriels.
    • Menaces sur l’IA dans l’automatisation industrielle.
  • Stratégies de protection :
    • Sécurisation des systèmes IA connectés aux infrastructures critiques.
    • Introduction aux architectures Zero Trust pour l’IA en entreprise.

Travaux pratiques

Détection d’une attaque sur un modèle utilisé dans un contexte industriel.

Sécurité des IA en entreprise : gouvernance et conformité

  • Réglementation et normes de cybersécurité IA :
    • ISO 27001, 27002 et NIST AI Risk Management Framework.
    • IA Act et implications pour les entreprises.

Travaux pratiques

Analyse de conformité IA dans un projet d’entreprise.

Rôle de l’IA dans la cybersécurité

  • Qu’apporte l’IA pour la sécurité ? (Amélioration des capacités de détection, complexité des menaces modernes, volume massif de données).
  • Cas d’usage classiques (détection d’intrusions, analyse des malwares, gestion des vulnérabilités, détection de fraude, authentification biométrique).
  • Principales techniques utilisées.

Travaux pratiques

Détection d’anomalies sur un dataset d’activité réseau.

IA hybride, agents IA et cybersécurité avancée

  • Retrieval-Augmented Generation (RAG) et cybersécurité :
    • IA hybride pour améliorer la détection des menaces.
    • Applications en SOC et documentation automatisée (MITRE ATT&CK, CVE).
  • Agents IA et menaces émergentes :
    • Introduction aux agents autonomes (AutoGPT, BabyAGI, CrewAI).
    • Automatisation des SOC et réponse proactive aux incidents.
    • Risques : contournement des restrictions, manipulation des agents.
  • AIOps : Intelligence Artificielle appliquée aux Opérations IT
    • Définition et enjeux de l'AIOps (Artificial Intelligence for IT Operations).
    • Automatisation des opérations de cybersécurité :
    • Détection proactive d’incidents grâce à l’IA.
    • Agents IA pour la surveillance d’un système et la détection de menaces (discussion technique).
  • Les perspectives futures sur le sujet.

Génération de contenu, deepfakes, ingénierie sociale

  • Génération de contenus malveillants (phishing avancé, usurpation d’identité).
  • Impact des GAN (Generative Adversarial Networks) sur la fraude :
    • Création de fausses identités numériques et détournement d’authentification.
    • Études de cas : fraudes par deepfake (ex. arnaque au PDG de 25M$).
  • Prévention et détection :
    • Les deepfakes et leur détection (discussion technique).
    • Authentification avancée pour contourner les usurpations vocales et vidéo.

Attaques physiques IA sur IA et IoT

  • Menaces sur les dispositifs connectés :
    • Attaques side-channel (ex. keylogger acoustique basé sur IA).
    • Manipulation des véhicules autonomes (ex. détournement des LIDAR).
  • Stratégies de sécurisation :
    • Sécurité des assistants vocaux contre l’exploitation malveillante.
    • Surveillance et détection des anomalies sur les objets connectés IA.
Please login to get access to the quiz
Prompt engineering et fonctions avancées (Prev Lesson)
(Next Lesson) L’IAG pour chefs de projet, analystes, développeurs et architectes SI
Back to Intelligence Artificielle