Sécurité IA
Statut
Document de cadrage sécurité — version initiale.
Objectif
L'IA DMV doit être une couche métier transverse, utile et discrète, sans devenir un point de fuite de données ou de décision non maîtrisée.
Elle doit aider à publier, rechercher, modérer, générer et gagner du temps, mais rester encadrée.
Principes
- L'IA ne doit jamais accéder directement à la base de données.
- Les appels IA doivent passer par une AI Gateway backend.
- Les données envoyées aux providers doivent être minimisées.
- Les décisions critiques doivent rester sous validation humaine.
- Les prompts système doivent être versionnés et protégés.
- Les usages doivent être soumis à quotas, crédits et logs.
- Les résultats IA doivent être considérés comme des propositions, pas des vérités.
Données sensibles IA
| Donnée | Risque |
|---|---|
| Prompt utilisateur | Injection, fuite d'information, abus. |
| Contexte métier | Exposition de données acteur, commune ou utilisateur. |
| Résultat généré | Contenu inexact, non conforme ou diffamatoire. |
| Logs IA | Conservation de données personnelles ou sensibles. |
| Coûts/tokens | Dépense non maîtrisée, abus premium. |
| Moderation data | Décision sensible à ne pas automatiser seule. |
Architecture cible
La sécurité IA cible repose sur :
- une AI Gateway centralisée ;
- un routing modèle contrôlé ;
- des scopes métier ;
- une sélection stricte du contexte transmis ;
- des garde-fous de prompt injection ;
- une validation des sorties selon le cas d'usage ;
- une journalisation sans secret ni donnée excessive ;
- des quotas par abonnement ou crédit IA.
Cas DMV
| Cas d'usage | Mesure de sécurité |
|---|---|
| Recherche intelligente | Répondre à partir de données autorisées et contextualisées. |
| Assistant publication | Soumettre à validation avant publication. |
| Génération PlayLoop | Contrôler les sources et formats générés. |
| Modération assistée | Aider les humains, ne pas remplacer le modérateur. |
| IA mairie | Exiger validation humaine pour alertes et communications sensibles. |
Ce que l'IA ne doit pas faire
- Publier seule un contenu sensible.
- Remplacer un élu, un modérateur ou un responsable local.
- Accéder directement aux tables PostgreSQL.
- Modifier des droits, abonnements ou paiements.
- Révéler des données privées dans une réponse générée.
- Contourner les règles RBAC ou les scopes.
État actuel vs cible
| Sujet | État actuel | Cible |
|---|---|---|
| IA Gateway | Documentée comme cible | Point unique d'orchestration IA. |
| Providers | Claude, GPT, low-cost, local futur comme orientation | Routing selon tâche, coût et sensibilité. |
| Quotas/crédits | Stratégie documentée | Contrôle effectif par offre. |
| Sécurité données | Principe validé | Filtrage systématique du contexte. |
Points à clarifier
- Données autorisées par cas d'usage IA.
- Durée de conservation des logs IA.
- Liste des providers et règles de transfert.
- Politique de validation humaine.
- Tests de prompt injection.
- Réponse à incident IA.