F-1-6-3
|
Intelligence artificielle
|
Gouvernance, risques et conformité

Utilisez l'intelligence artificielle sans ouvrir la porte aux fuites de données.
Apprenez les bonnes pratiques pour ne jamais exposer vos secrets d'affaires ou vos données sensibles lors de l'utilisation de modèles d'IA publics.
Maîtriser les risques de sécurité liés à l'usage de l'IA générative pour protéger les données confidentielles, les secrets industriels et les informations personnelles de l'organisation.
Identifier les vecteurs de fuite de données lors de l'interaction avec des IA publiques.
Configurer ses outils d'IA pour garantir une confidentialité maximale.
Appliquer des protocoles d'anonymisation et de masquage des données sensibles.
Thématiques :
Le fonctionnement des serveurs IA : Où vont vos données ? Comprendre la différence entre "inférence" et "entraînement" des modèles.
Vecteurs de fuites : Le risque de l'historique partagé, le stockage des prompts par les tiers et le risque de "reconstruction" de données sensibles par l'IA.
Nouvelles menaces : Introduction au Prompt Injection (comment un pirate peut détourner votre IA) et aux risques de phishing augmenté par l'IA.
Cadre légal 2026 : Les obligations de cybersécurité imposées par l'AI Act et les sanctions en cas de négligence.
Exercice pratique :Atelier "Cartographie des Risques" : À partir d'une liste de 10 usages courants de l'IA (ex: résumer un PDF de stratégie, traduire un contrat, coder une fonction), classer chaque usage par niveau de risque (Vert / Orange / Rouge) et justifier.
Objectif stagiaire : Développer une conscience technique des risques pour arrêter les comportements "à risque" par réflexe.
Thématiques :
Configuration des comptes : Maîtriser les paramètres de confidentialité de ChatGPT, Gemini, Mistral et Claude (désactiver l'entraînement, gestion de l'historique).
Techniques de Masquage : Apprendre à utiliser des variables ou des descriptions génériques pour remplacer les données sensibles tout en gardant l'IA efficace.
L'IA de confiance : Panorama des solutions "Souveraines" et "On-premise" (IA installées localement sur le poste ou le serveur de l'entreprise).
Vérification et Posture : Comment détecter si une réponse de l'IA contient des éléments de code ou de données "pollués" par des sources externes malveillantes.
Exercice pratique :Le Défi de l'Anonymisation : Les stagiaires reçoivent un document confidentiel (faux secret industriel). Ils doivent rédiger un prompt permettant à l'IA d'analyser le document sans jamais identifier le produit, l'entreprise, ou les chiffres réels.
Objectif stagiaire : Savoir utiliser la puissance de l'IA sans jamais lui "donner" la substance du secret professionnel.
Nous vous proposons plusieurs solutions de financement :
Le compte personnel de formation | CFP*
Les Opérateurs de Compétences | OPCO
France Travail
* si la formation choisie est dispensable via le CPF
