Transparence

Comment nous utilisons
l'Intelligence Artificielle

Chez Bourbon Digital, l'IA est un outil d'aide à la décision, jamais un décideur autonome. Cette page décrit nos engagements concrets en matière d'utilisation responsable de l'IA.

Nos 4 engagements IA

Inscrits dans nos Conditions Générales de Vente (Art.11) et appliqués dans chacun de nos 11 produits SaaS.

Validation Humaine Obligatoire

Art.11.2 CGV

Toute recommandation, analyse ou action générée par l'IA doit être validée par un humain avant exécution. L'IA propose, l'humain décide.

Exemple concret : Quand l'Audit Engine détecte une faille, il génère une recommandation. L'administrateur doit explicitement approuver ou rejeter l'action corrective proposée.

Traçabilité Complète

Art.11.3 CGV

Chaque interaction avec l'IA est enregistrée et horodatée : le prompt envoyé, la réponse générée, le modèle utilisé, et l'identité du validateur humain.

Données tracées : trace_id, timestamp, prompt, réponse IA, modèle (Gemini), latence, validateur_email, décision (approuvé/rejeté), region (europe-west9)

Zéro Profilage Organisationnel

Art.11.4 CGV

Nos agents IA traitent uniquement des données techniques et opérationnelles. Il est formellement interdit à nos IA d'analyser les dynamiques relationnelles, hiérarchiques ou politiques de votre organisation.

Catégories INTERDITES : org_hierarchy, user_behavior, power_dynamics, personal_relationships, political_dynamics, individual_profiling

Souveraineté des Données

Art.11.4 CGV + DPA

Toutes les données et les traitements IA restent dans l'Union Européenne. Infrastructure Google Cloud Platform, région europe-west9 (Paris, France). Zéro transfert hors UE.

Infrastructure : GCP europe-west9 (Paris) — Cloud Run, Memorystore, Cloud SQL, Vertex AI, BigQuery, Cloud Storage

Produits utilisant l'IA

Chaque produit Bourbon Digital intègre Gemini Enterprise (Vertex AI) comme moteur IA. Voici comment l'IA est utilisée dans chacun :

GWS-Audit-Engine

Explication des failles de sécurité en langage naturel, détection d'anomalies dans les scores, résumé exécutif IA des rapports d'audit.

GWS-Compliance-Center

Évaluation IA du risque lors de changements de configuration (drift detection), résumé mensuel de conformité.

GWS-Adoption-Analytics Roadmap

Insights d'adoption personnalisés par département, recommandations de formations ciblées.

GWS-License-Optimizer

Recommandations de downgrade/upgrade avec justification IA, prévisions de coûts.

GWS-Email-Shield

Analyse des menaces email, interprétation des rapports DMARC, suggestions de corrections DNS.

AI-Mail-Dispatcher

Classification et routage automatique des emails entrants. Apprentissage continu via feedback humain.

GWS-Drive-Architect Roadmap

Suggestions de réorganisation Shared Drives, classification automatique de fichiers, analyse de permissions.

GWS-DLP-Manager Roadmap

Suggestion de règles DLP adaptées au secteur, explication des violations de données sensibles détectées.

Doc & Mail Migration

Suggestion de mapping folders → Shared Drives, classification des fichiers sensibles pré-migration, rapport post-migration IA.

Architecture technique de confiance

Gemini Enterprise

Modèle IA de Google (Vertex AI). Vos données ne sont jamais utilisées pour entraîner le modèle. Engagement contractuel Google.

AI Trace Logger

Module ai_trace.py déployé dans chaque produit. Logs structurés vers BigQuery pour audit long terme.

Guardrails A2A

Chaque Agent Card déclare ses guardrails : région, catégories interdites, et obligation human-in-the-loop.

Questions fréquentes

L'IA peut-elle prendre des décisions sans mon accord ?
Non, jamais. Conformément à l'Art.11.2 de nos CGV, toute production IA doit être validée par un humain avant exécution. L'IA est un outil d'aide à la décision, pas un décideur.
Où sont traitées mes données ?
Toutes les données sont traitées exclusivement dans la région GCP europe-west9 (Paris, France). Aucun transfert hors de l'Union Européenne. C'est inscrit dans nos CGV (Art.11.4) et nos Terraform sont configurés pour forcer cette région.
L'IA analyse-t-elle les comportements de mes employés ?
Non. L'Art.11.4 de nos CGV interdit formellement tout profilage organisationnel. Nos agents IA traitent uniquement des données techniques (configurations de sécurité, métriques d'adoption agrégées, statuts de conformité). Ils ne modélisent jamais les rapports de pouvoir, les comportements individuels, ou les interactions entre personnes.
Mes données servent-elles à entraîner l'IA ?
Non. Nous utilisons Gemini Enterprise via Vertex AI. Google s'engage contractuellement à ne pas utiliser les données clients pour l'entraînement de ses modèles. Vos données restent vos données.
Puis-je auditer les interactions IA ?
Oui. Chaque interaction IA est logée avec un identifiant unique (trace_id), horodatée, et conservée sur BigQuery. Vous pouvez demander un export d'audit à tout moment conformément à l'Art.11.3 de nos CGV et à notre DPA (Annexe 3).

Des questions sur notre utilisation de l'IA ?

Contactez notre équipe pour une démo transparente ou un accès à nos logs d'audit IA.