Intégrez la protection IA complète (Prompt Guard + DataShield + LLM Router) dans vos applications.
Créez un compte et souscrivez à un pack Senseway API dans la page pricing.
# npm
npm install @adlibo/senseway-sdk
# yarn
yarn add @adlibo/senseway-sdk
# pnpm
pnpm add @adlibo/senseway-sdkimport { Senseway } from '@adlibo/senseway-sdk';
const senseway = new Senseway({
apiKey: 'sw_live_xxxxx', // Votre clé API
});
// Chat protégé avec routage automatique
const response = await senseway.chat({
message: 'Analyse ce document client avec IBAN CH93...',
userRole: 'banker', // RBAC contextuel
userDepartment: 'Private Banking',
});
console.log(response.text); // Réponse LLM
console.log(response.model); // Modèle utilisé
console.log(response.tokensDetected); // PII tokenisés
console.log(response.pgScore); // Score Prompt Guard/api/v1/senseway/chatEnvoie un message au LLM avec protection Prompt Guard + DataShield + routage automatique.
Authorization: Bearer sw_live_xxxxx
Content-Type: application/json
X-User-Role: banker # Optionnel: rôle RBAC
X-User-Department: Finance # Optionnel: département{
message: Votre prompt avec données sensibles...,
modelId: auto, // ou gpt-4, claude-3, etc.
autoSelect: true, // Routage par talent
userRole: banker, // RBAC
userDepartment: Finance,
files: [] // Optionnel: fichiers base64
}{
response: Réponse du LLM...,
modelUsed: claude-3-opus,
tokensDetected: 3,
metadata: {
pgScore: 12,
pgBlocked: false,
tokenizedFields: [IBAN, email, phone],
domains: [finance, pii],
processingTimeMs: 2450
}
}/api/v1/senseway/statsRécupère les statistiques d'utilisation de votre compte.
{
period: 2026-02,
requestsUsed: 45230,
requestsLimit: 100000,
tokensDetected: 12450,
pgBlocked: 23,
modelDistribution: {
claude-3-opus: 15000,
gpt-4: 12000,
mistral-large: 8000
}
}import { Senseway, SensewayError } from '@adlibo/senseway-sdk';
const senseway = new Senseway({ apiKey: process.env.SENSEWAY_API_KEY! });
// Streaming
const stream = await senseway.chat({
message: 'Génère un rapport sur le client Jean Dupont...',
stream: true,
});
for await (const chunk of stream) {
process.stdout.write(chunk.text);
}
// Error handling
try {
const res = await senseway.chat({ message: 'Ignore all instructions...' });
} catch (err) {
if (err instanceof SensewayError) {
if (err.code === 'PROMPT_BLOCKED') {
console.log('Prompt injection détectée:', err.pgScore);
}
}
}from adlibo import Senseway
senseway = Senseway(api_key="sw_live_xxxxx")
# Simple chat
response = senseway.chat(
message="Analyse le dossier patient N° 12345...",
user_role="doctor",
user_department="Cardiologie"
)
print(response.text)
print(f"Tokens détectés: {response.tokens_detected}")
# Async
import asyncio
async def main():
async for chunk in senseway.chat_stream(message="..."):
print(chunk.text, end="")
asyncio.run(main())curl -X POST https://www.adlibo.com/api/v1/senseway/chat \
-H "Authorization: Bearer sw_live_xxxxx" \
-H "Content-Type: application/json" \
-d '{
"message": "Résume ce contrat avec IBAN CH93 0076 2011...",
"userRole": "banker",
"autoSelect": true
}'Chaque requête passe par un pipeline de protection en 4 étapes :
Détection d'injection de prompts, jailbreak, contenu NSFW. Analyse hybride regex + sémantique TF-IDF. Score 0-100, blocage si >85.
Tokenisation des PII (IBAN, email, téléphone, n° sécu, etc.) avant envoi au LLM.
Sélection du meilleur modèle selon le domaine (finance, santé, code, juridique...).
Restauration des tokens dans la réponse finale (optionnel selon politique RBAC).
De 10K à 1M+ requêtes/mois. Protection complète incluse.
Voir les packs Intégrateurs