Disclosure per fornitori IA

Disclosure IA

Critico per i fornitori IA: quali modelli utilizziamo, come i dati del Cliente restano fuori dai training set, quali rischi presidiamo e come governiamo l'autonomia degli agenti.

I dati del Cliente non addestrano i modelli foundation.

Questo è contrattualmente garantito con ciascun fornitore LLM nel nostro stack: Anthropic (Commercial Terms §3, zero retention), OpenAI (Enterprise Compliance API zero retention), Google Cloud Vertex AI (GCP Platform Terms — nessun addestramento sui dati Cliente) e Microsoft Azure OpenAI (Products and Services DPA). Claresia stessa non addestra alcun modello sui contenuti del Cliente: siamo un layer di orchestrazione.

Inventario dei modelli

Fornitore Modello Residenza
Anthropic Claude Sonnet 4.7 eu-south-1 / eu-central-1
Anthropic Claude Haiku 4.5 eu-south-1 / eu-central-1
OpenAI GPT-5 / GPT-5 mini us / eu region pinned
Google Gemini 2.5 Pro us / eu region pinned
Microsoft Azure OpenAI (GPT-5) eu-italy / eu-west / eu-north region pinned

Tassonomia dei rischi IA

I rischi di cui una piattaforma di orchestrazione IA è responsabile, e i controlli che Claresia rilascia per ciascuno. È la base del Claresia Agent Governance Framework (release formale prevista nel Q3 2026).

Prompt injection

Input avversariale che tenta di sovrascrivere le istruzioni di sistema o esfiltrare dati.

Mitigazione

Lo Skill IR impone tipizzazione dei parametri e tool call strutturate. Gli output handler sanificano prima della persistenza. Il rilevatore di dati sensibili scansiona gli output alla ricerca di credenziali e marker PHI/PCI. Gli output flaggati emergono come governance_event.

Allucinazione

Il modello produce un output plausibile ma fattualmente errato.

Mitigazione

Le Skill sono ancorate a contesto recuperato con provenance delle citazioni. Lo Hub registra ogni fonte utilizzata; l'Hub viewer mostra la catena di citazioni. Le Skill di Tier-1 richiedono human-in-the-loop per le azioni irreversibili.

Esfiltrazione di dati via modello

Il modello restituisce dati che l'utente non è autorizzato a vedere.

Mitigazione

Ereditarietà dei permessi applicata prima del retrieval — il modello vede esclusivamente i dati a cui l'utente ha accesso secondo l'ACL del Cliente. I connettori applicano gli ACL in fase di fetch, non di rendering.

Autonomia degli agenti / azioni non sicure

La Skill agentica esegue azioni distruttive o irreversibili senza consenso umano.

Mitigazione

Un layer di alignment-model pre-scansiona ogni write contro una policy di restricted-topics. Le azioni di Tier-1 (invio di email esterne, modifica del codice sorgente, pubblicazione pubblica) richiedono sempre approvazione esplicita dell'utente. Audit trail completo nello Hub.

Esposizione di contenuti sensibili

Output di Skill che contiene credenziali, PHI, PCI o altri contenuti sensibili.

Mitigazione

Il rilevatore di dati sensibili gira su ogni output, applica template di redazione (policy admin one-click) e fa emergere i match come governance_event per la review SecOps.

Framework di governance degli agenti

Pre-azione

Scansione di allineamento

Ogni azione agentica viene pre-scansionata da un alignment model contro le policy di restricted-topics configurate dal tenant. Le azioni bloccate emergono come governance_event per review.

Per-azione

Esecuzione gated per Tier

Tier-3 (sola lettura): autonoma. Tier-2 (write reversibili): autonoma con audit. Tier-1 (irreversibile / impatto esterno): approvazione umana obbligatoria, registrata nello Hub.

Post-azione

Audit pronto per il SOAR

Tutti i governance event affluiscono al SIEM / SOAR del Cliente (Splunk, Sentinel, Tines) tramite l'Audit Stream API. Gli analisti SOC fanno triage dai loro tool — Claresia non richiede una nuova console.

Stato — il framework è già operativo nel runtime Synthetic Twin cc-052 / cc-053 e all'interno dei control plane in Modalità B/C. La specifica formale del framework pubblicato (l'equivalente Claresia di Glean AWARE) è prevista per il Q3 2026, in concomitanza con il lancio del programma pubblico Bugcrowd / HackerOne.