F-1-1-5
|
Intelligence artificielle
|
Comprendre et s'initier

Innovez avec audace, mais toujours avec responsabilité.
Naviguez avec assurance dans le cadre légal (AI Act) et éthique. Cette formation vous enseigne comment déployer des solutions d'IA transparentes, respectueuses de la vie privée et conformes aux réglementations européennes.
Sécuriser les pratiques professionnelles en intégrant les contraintes juridiques de l'AI Act et les principes d'éthique by-design dans chaque projet d'IA.
Maîtriser la classification des risques selon le Règlement Européen sur l'IA (AI Act).
Identifier et neutraliser les biais algorithmiques dans les systèmes de décision.
Piloter la conformité RGPD spécifique aux traitements de données par les LLM.
Garantir la propriété intellectuelle et la traçabilité des contenus générés.
Thématiques :
Comprendre l'échelle de régulation (Risque inacceptable, Haut risque, Risque limité, Risque minimal).
Qui est responsable en cas d'erreur ou de dommage ?
Le droit à l'explication, le droit à l'oubli dans les modèles de fondation et la gestion du consentement.
Le statut juridique des outputs de l'IA et la protection du secret des affaires lors du prompting.
Exercice pratique :Atelier "Audit de Conformité" : Présentation de trois scénarios (IA de recrutement, chatbot client, outil de diagnostic médical). Les stagiaires doivent déterminer la catégorie de risque, les obligations documentaires associées et les risques de sanctions financières.
Objectif stagiaire : L'apprenant doit être capable de situer n'importe quel outil d'IA sur l'échiquier réglementaire européen et d'en déduire les contraintes légales.
Thématiques :
Analyser comment les données d'entraînement reproduisent des stéréotypes (genre, origine, âge).
Mettre en place des protocoles de "Human-in-the-loop" pour valider les décisions critiques.
Le dilemme de la puissance de calcul face aux objectifs RSE de l'entreprise.
Comment rédiger et faire adopter une politique d'utilisation responsable (AUP - Acceptable Use Policy).
Exercice pratique :Le "Crash Test" Éthique : Analyse d'un cas réel de biais algorithmique célèbre. Les stagiaires doivent proposer un protocole de test de robustesse et de neutralité pour éviter que cela ne se reproduise dans leur propre structure.
Objectif stagiaire : L'apprenant doit savoir auditer la neutralité d'une réponse d'IA et structurer un argumentaire éthique pour un déploiement responsable.
Nous vous proposons plusieurs solutions de financement :
Le compte personnel de formation | CFP*
Les Opérateurs de Compétences | OPCO
France Travail
* si la formation choisie est dispensable via le CPF
