Documentation AI Red Team
Guide complet du service de test de penetration pour vos chatbots, assistants IA et systèmes LLM.
Vue d'ensemble
AI Red Team est un service de test de penetration spécialisé pour les systèmes d'intelligence artificielle. Notre équipe teste vos chatbots, assistants IA et agents autonomes contre 8'000+ prompts d'attaque connus et decouverts par notre R&D.
Niveaux de Service
Trois forfaits adaptes a la taille et complexité de vos systèmes IA.
Standard
Intrusion réussie vers 1 actif protégé
par engagement
- Jusqu'à 50 cibles testées
- Critère de succès: 1 actif protégé atteint
- Tests d'injection de prompts
- Tentatives de jailbreak
- Rapport PDF synthétique
- Appel debriefing 1h
Advanced
Atteinte de 3 actifs définis
par engagement
- Jusqu'à 200 cibles testées
- Critère de succès: 3 actifs protégés atteints
- Attaques multi-vecteur
- Contournement RBAC
- Tests multilingues (50+ langues)
- Rapport détaillé + roadmap
- Session de formation équipe
Enterprise
Multi-LLM, 8000+ prompts testés
par engagement
- Cibles illimitées
- Test Multi-LLM (toutes vos apps IA)
- 8000+ prompts d'attaque connus testés
- Red Team complet (... patterns)
- Tests chaine d'approvisionnement LLM
- Simulation APT
- Présentation board-ready
- Debrief sur site
Methodologie de Test
Nous analysons les 3 couches de vulnerabilite de vos systèmes IA.
Couche LLM
Resistance aux jailbreaks et contournements d'alignement
- Jailbreaks (DAN, Developer Mode, STAN)
- Contournement d'instructions système
- Extraction de system prompt
- Manipulation de contexte
- Confusion de role
Couche Application
Vulnerabilites du wrapper applicatif
- Injection de prompts indirects
- Exfiltration de données RAG
- Manipulation de session
- Escalade de privileges
- Bypass de filtres
Couche Intégration
Abus des outils et APIs connectes
- Abus de function calling
- RAG poisoning
- Injection SQL via LLM
- Exécution de code non autorisé
- SSRF via plugins
24 Catégories d'Attaque
Nos tests couvrent l'ensemble des vecteurs d'attaque connus, alignés sur OWASP LLM Top 10.
DIRECT_OVERRIDEContournement direct des instructions
ROLE_MANIPULATIONManipulation du role de l'IA
EXTRACTIONExtraction d'informations protégées
FORMAT_TOKENSAbus de tokens spéciaux
FAKE_AUTHORITYUsurpation d'autorité
DAN_JAILBREAKJailbreaks de type DAN
ROLEPLAY_ATTACKAttaques par jeu de rôle
HYPOTHETICALScénarios hypothétiques malveillants
EMOTIONALManipulation émotionnelle
GRADUAL_BOUNDARYÉrosion progressive des limites
CONTEXT_EXPLOITExploitation du contexte
ENCODINGContournement par encodage
TECHNICALAttaques techniques avancées
MODEL_INFOExtraction d'info modèle
HARMFUL_BEHAVIORInduction de comportement nuisible
SENSITIVE_QUERYRequêtes sensibles
DATA_EXFILTRATIONExfiltration de données
Types de Systèmes Testables
Nous testons tout système intégrant un LLM.
Chatbots
Support client, vente, FAQ
Assistants internes
RH, IT, juridique
Agents autonomes
AutoGPT, CrewAI, LangGraph
Copilots
Code, documents, productivité
Systèmes RAG
Bases de connaissances
GPTs Custom
ChatGPT Teams, plugins
Workflows IA
n8n, Make, Zapier + IA
APIs LLM
Intégrations directes
Livrables
Ce que vous recevez à la fin de l'engagement.
Rapport Détaillé
- Score de vulnérabilité global (0-100)
- Breakdown par catégorie (24 catégories)
- Liste des vulnérabilités trouvées avec criticité
- Preuves d'exploitation (PoC) pour chaque faille
- Recommandations priorisées par impact
- Règles Prompt Guard suggérées
Résumé Exécutif
- Synthèse pour COMEX/CISO (2 pages)
- Risques business identifiés
- Comparaison avec benchmarks sectoriels
- Plan de remédiation en 30/60/90 jours
Livraison Sécurisée
Le rapport PDF est livré via un lien à usage unique avec code OTP envoyé par SMS. Expiration après 72h ou premier téléchargement.
Processus d'Engagement
Un processus structuré en 4 étapes.
SOW & Acompte
Signature du Statement of Work définissant le périmètre et les règles d'engagement. Versement de l'acompte de 60%.
Reconnaissance
Analyse des chatbots cibles, identification des providers LLM, cartographie des fonctionnalités et points d'entree.
Exécution des Tests
Lancement des ... patterns de détection, tests manuels avances, attaques multi-vecteur selon le niveau choisi.
Rapport & Paiement Final
Compilation du rapport, présentation des résultats, debriefing. Solde de 40% a la livraison.
Questions Frequentes
Pret a securiser vos IA?
Demandez un devis personnalisé ou contactez notre équipe pour discuter de vos besoins.
Ou contactez-nous: redteam@adlibo.com