Passerelle IA Souveraine
Vos équipes utilisent l’IA en toute sécurité, vous gardez le contrôle. Un seul point d’accès à 54+ modèles IA. Les données sensibles sont automatiquement protégées avant d’être envoyées au LLM, puis restituées dans la réponse.
Vous savez qui utilise quoi, avec quelles données, à quel coût. Fini le shadow AI.
Ou essayez gratuitement sur senseway.it
Inclus dans Adlibo Guard Business+. Aussi disponible via EPS Pro.
Noms, IBAN, contrats… masqués automatiquement avant envoi au LLM. Les données originales restent dans votre infrastructure.
Routage automatique vers le LLM le plus adapté : code, juridique, médical, finance. Le routeur intelligent sélectionne le meilleur modèle.
Qui utilise quel modèle, avec quelles données, à quel coût. Tableau de bord centralisé et export SIEM.
Modèles autorisés, budgets, niveaux d’accès selon le rôle. Politiques DLP configurables.
Prompt Guard détecte les injections (regex + analyse sémantique TF-IDF), DataShield tokenise les données (99%+ fidélité roundtrip), le routeur intelligent sélectionne le meilleur modèle.
54+ plateformes LLM accessibles depuis une interface unique. OpenAI, Anthropic, Mistral, Cohere, Groq et bien d’autres.
15 agents spécialisés analysent votre conversation et proposent des actions pertinentes — triés dynamiquement selon le contexte.
Traités par le LLM sélectionné. Aucun coût supplémentaire.
Analyses avancées via Claude API dédié (+20%).
Synthèse structurée de la conversation
Résumé visuel en fiches
Extraction de données en tableau structuré
Suggestions d’actions concrètes et priorisées
Carte mentale des concepts et relations
Citations et sources extraites avec liens
Chronologie des événements mentionnés
Traduction multilingue intelligente
Anonymisation automatique des PII
Vérification RGPD, nLPD, DORA, SOC2, HIPAA, FINMA, EU AI Act
Revue sécurité (injection, XSS, performance)
Croisement avec 3 LLMs indépendants, score 0-100
Rapport structuré PDF/Markdown exportable
Évaluation 6 catégories de risques
Fact-checking dual-perspective
Le routeur sélectionne automatiquement le meilleur modèle selon le domaine détecté, la sensibilité des données et vos politiques d’accès.
OpenAI (GPT-4o) · Anthropic (Claude 4.5) · Google (Gemini 2.5) · Mistral · DeepSeek · Meta (Llama 4) · Cohere · Groq · Souverain CH
Aucune donnée sensible détectée — envoi direct au LLM optimal.
PII détectés — seules les données sensibles sont tokenisées avant envoi.
Données critiques — tokenisation intégrale, modèles souverains privilégiés.
Chaque couche de Senseway est conçue pour protéger vos données sensibles.
Les données sensibles sont remplacées par des tokens avant d’atteindre le LLM. Les originaux restent dans votre vault chiffré AES-256-GCM.
Noms, emails, IBAN, numéros AVS, passeports, données de santé… analysés en temps réel avec évaluation du risque de croisement.
Règles spécifiques par pays : secret professionnel (CH), HDS (FR), BDSG (DE), HIPAA (US). Le routeur adapte la protection automatiquement.
Qui a utilisé quel modèle, avec quelles données, à quel coût. Exportable SIEM. Conformité nLPD, RGPD, DORA, FINMA.
Inférence automatique du rôle (DPO, CISO, compliance officer) selon le contenu analysé. Politiques d’accès par équipe.
Modèles souverains CH/UE disponibles. Aucune donnée ne transite par des juridictions soumises au CLOUD Act.
Chaque réponse peut être vérifiée automatiquement par 2 LLMs indépendants.
Le LLM principal génère sa réponse
2 LLMs indépendants vérifient chaque affirmation
Verdict : confirmé, contesté ou invérifiable
Score de confiance 0-100. Réduisez les hallucinations avant qu’elles ne deviennent des décisions.
Un espace de travail structuré autour de vos conversations IA.
Partagez une conversation avec vos collègues. Accès lecture seule, révocation instantanée.
Chaque échange génère une preuve horodatée. Traçabilité complète pour audit et conformité.
Résultats des agents, détails des échanges (tokens, coût, modèle, protection) dans un panneau latéral.
Senseway s’intègre avec trois modes de déploiement. Chaque mode couvre des couches différentes de protection.
| Extension Endpoint Shield | DS Cloud Proxy | DS On-Premise | |
|---|---|---|---|
| Interface utilisateur (CSS / bannière) | |||
| Redirection Senseway | |||
| Blocage inputs IA (CSS) | |||
| Réseau (blocage HTTP) | |||
| DLP tokenisation | |||
| RBAC/ABAC contextuel |
L’extension Endpoint Shield est le seul mode permettant l’injection CSS (bannière, blocage inputs). Le Cloud Proxy et On-Premise bloquent au niveau réseau.
Des limites architecturales majeures, une adoption en berne, et un DLP contourné deux fois en 8 mois.
Seuls 6% des pilotes Copilot ont abouti à un déploiement à grande échelle.
Gartner, 2025
Le DLP natif de Copilot a été contourné — les labels de confidentialité ignorés pendant 4 semaines.
Microsoft CW1226324, fév. 2026
72% des entreprises rapportent des difficultés d’adoption par les employés.
Forrester, 2025
Sélection de modèle opaque — un routeur choisit le LLM, potentiellement le moins coûteux pour Microsoft.
Architecture documentée
| Microsoft Copilot | Adlibo Senseway | |
|---|---|---|
| Modèles LLM | Modèle opaque (routeur boîte noire) | 54+ modèles — vous choisissez |
| DLP / Protection données | Labels de confidentialité contournés (CW1226324) | Tokenisation DataShield — données jamais exposées au LLM |
| Souveraineté | Cloud US — soumis au CLOUD Act | 100% suisse (Genève) — hors CLOUD Act |
| Transparence | Boîte noire — restrictions système cachées | Modèle, latence, coût visibles en temps réel |
| Adoption | ~3% des utilisateurs M365 (Gartner) | Déploiement immédiat, interface unique |
| Limite prompts | 7 500 mots recommandés (Microsoft) | Pas de limite artificielle — capacité native du LLM |
Un seul point d’accès sécurisé à 54+ modèles IA. Protection automatique des données sensibles, visibilité totale, conformité assurée.