Critico per i fornitori IA: quali modelli utilizziamo, come i dati del Cliente restano fuori dai training set, quali rischi presidiamo e come governiamo l'autonomia degli agenti.
I dati del Cliente non addestrano i modelli foundation.
Questo è contrattualmente garantito con ciascun fornitore LLM nel nostro stack: Anthropic (Commercial Terms §3, zero retention), OpenAI (Enterprise Compliance API zero retention), Google Cloud Vertex AI (GCP Platform Terms — nessun addestramento sui dati Cliente) e Microsoft Azure OpenAI (Products and Services DPA). Claresia stessa non addestra alcun modello sui contenuti del Cliente: siamo un layer di orchestrazione.
Inventario dei modelli
Fornitore
Modello
Finalità
Isolamento dei dati di training
Residenza
Anthropic
Claude Sonnet 4.7
Modello di reasoning di default per la maggior parte delle Skill
Nessun dato del Cliente è mai utilizzato per l'addestramento. Anthropic Commercial Terms §3.
eu-south-1 / eu-central-1
Anthropic
Claude Haiku 4.5
Task ad alto throughput e bassa latenza (classificazione, estrazione)
Stesso contratto zero-retention di Sonnet.
eu-south-1 / eu-central-1
OpenAI
GPT-5 / GPT-5 mini
Clienti su tenant OpenAI (ChatGPT Enterprise)
Zero retention tramite Enterprise Compliance API. Massimo 30 giorni di abuse-monitoring con opt-out.
us / eu region pinned
Google
Gemini 2.5 Pro
Clienti Google Workspace tramite Vertex AI
Nessun addestramento sui dati del Cliente Vertex AI ai sensi dei GCP Platform Terms.
us / eu region pinned
Microsoft
Azure OpenAI (GPT-5)
Clienti Microsoft Copilot M365
Microsoft Products and Services DPA. Opt-out dall'abuse-monitoring per workload sensibili.
eu-italy / eu-west / eu-north region pinned
Tassonomia dei rischi IA
I rischi di cui una piattaforma di orchestrazione IA è responsabile, e i controlli che Claresia rilascia per ciascuno. È la base del Claresia Agent Governance Framework (release formale prevista nel Q3 2026).
Prompt injection
Input avversariale che tenta di sovrascrivere le istruzioni di sistema o esfiltrare dati.
Mitigazione
Lo Skill IR impone tipizzazione dei parametri e tool call strutturate. Gli output handler sanificano prima della persistenza. Il rilevatore di dati sensibili scansiona gli output alla ricerca di credenziali e marker PHI/PCI. Gli output flaggati emergono come governance_event.
Allucinazione
Il modello produce un output plausibile ma fattualmente errato.
Mitigazione
Le Skill sono ancorate a contesto recuperato con provenance delle citazioni. Lo Hub registra ogni fonte utilizzata; l'Hub viewer mostra la catena di citazioni. Le Skill di Tier-1 richiedono human-in-the-loop per le azioni irreversibili.
Esfiltrazione di dati via modello
Il modello restituisce dati che l'utente non è autorizzato a vedere.
Mitigazione
Ereditarietà dei permessi applicata prima del retrieval — il modello vede esclusivamente i dati a cui l'utente ha accesso secondo l'ACL del Cliente. I connettori applicano gli ACL in fase di fetch, non di rendering.
Autonomia degli agenti / azioni non sicure
La Skill agentica esegue azioni distruttive o irreversibili senza consenso umano.
Mitigazione
Un layer di alignment-model pre-scansiona ogni write contro una policy di restricted-topics. Le azioni di Tier-1 (invio di email esterne, modifica del codice sorgente, pubblicazione pubblica) richiedono sempre approvazione esplicita dell'utente. Audit trail completo nello Hub.
Esposizione di contenuti sensibili
Output di Skill che contiene credenziali, PHI, PCI o altri contenuti sensibili.
Mitigazione
Il rilevatore di dati sensibili gira su ogni output, applica template di redazione (policy admin one-click) e fa emergere i match come governance_event per la review SecOps.
Framework di governance degli agenti
Pre-azione
Scansione di allineamento
Ogni azione agentica viene pre-scansionata da un alignment model contro le policy di restricted-topics configurate dal tenant. Le azioni bloccate emergono come governance_event per review.
Per-azione
Esecuzione gated per Tier
Tier-3 (sola lettura): autonoma. Tier-2 (write reversibili): autonoma con audit. Tier-1 (irreversibile / impatto esterno): approvazione umana obbligatoria, registrata nello Hub.
Post-azione
Audit pronto per il SOAR
Tutti i governance event affluiscono al SIEM / SOAR del Cliente (Splunk, Sentinel, Tines) tramite l'Audit Stream API. Gli analisti SOC fanno triage dai loro tool — Claresia non richiede una nuova console.
Stato — il framework è già operativo nel runtime Synthetic Twin cc-052 / cc-053 e all'interno dei control plane in Modalità B/C. La specifica formale del framework pubblicato (l'equivalente Claresia di Glean AWARE) è prevista per il Q3 2026, in concomitanza con il lancio del programma pubblico Bugcrowd / HackerOne.