Copilot e ChatGPT: quanto sono davvero sicure le soluzioni di IA enterprise?
Negli ultimi mesi alcune notizie hanno sollevato una domanda che molte aziende evitano di porsi fino a quando non è troppo tardi:
Le soluzioni di Intelligenza Artificiale che utilizziamo ogni giorno sono davvero sotto controllo?
Non parliamo di teoria. Parliamo di episodi documentati sulla sicurezza IA enterprise.
Il caso Copilot: quando il “confidential” non è più così tale
Nel febbraio 2026 è emersa la notizia di un bug in Microsoft 365 Copilot Chat che avrebbe consentito, per un periodo limitato, la sintesi di email etichettate come “confidential” nonostante policy DLP attive. Microsoft ha attribuito il problema a un errore nel codice e dichiarato la risoluzione.
Fonti:
TechCrunch – Microsoft says Office bug exposed customers’ confidential emails to Copilot AI
https://techcrunch.com/2026/02/18/microsoft-says-office-bug-exposed-customers-confidential-emails-to-copilot-ai/Microsoft Learn – Copilot privacy documentation
https://learn.microsoft.com/en-us/copilot/microsoft-365/microsoft-365-copilot-privacy
La domanda non è se il bug sia stato corretto.
La domanda è un’altra:
Se un controllo di governance enterprise può essere aggirato da un errore software, quanto è realmente verificabile il perimetro di sicurezza?
Il caso OpenAI e il rischio della filiera
Nel novembre 2025 OpenAI ha comunicato un incidente che ha coinvolto Mixpanel, fornitore esterno di analytics, con accesso non autorizzato a dati identificativi limitati e telemetria.
Fonti:
OpenAI – Mixpanel incident
https://openai.com/index/mixpanel-incident/Business Insider – OpenAI analytics partner breach
https://www.businessinsider.com/openai-mixpanel-hackers-stole-data-analytics-partner-chatgpt-2025-11
Non si trattava del modello.
Non si trattava dell’algoritmo.
Si trattava della filiera tecnologica.
E questo introduce un altro dubbio:
Quando adottiamo una piattaforma IA hyperscale, sappiamo davvero chi tocca i nostri dati lungo il percorso?
Un precedente che non andrebbe dimenticato
Nel marzo 2023 OpenAI ha pubblicato un post-mortem su un bug che aveva esposto titoli di conversazioni e, in alcuni casi limitati, dati tra utenti simultaneamente attivi.
Fonte:
OpenAI – March 20 ChatGPT outage
https://openai.com/index/march-20-chatgpt-outage/
Anche in quel caso:
- nessun attacco sofisticato,
- nessuna violazione intenzionale,
- ma un errore tecnico in un ambiente multi-tenant ad alta scala.
Il vero nodo: la sicurezza dichiarata vs la sicurezza verificabile
Oggi quasi tutte le piattaforme parlano di:
- data protection
- non training sui dati enterprise
- compliance
- governance
- controlli amministrativi
Ed è vero: le offerte enterprise di vendor globali includono meccanismi di sicurezza avanzati.
Ad esempio:
OpenAI Enterprise Privacy
https://openai.com/enterprise-privacy/Microsoft Copilot Privacy
https://learn.microsoft.com/en-us/copilot/microsoft-365/microsoft-365-copilot-privacy
Ma esiste una differenza fondamentale tra:
Sicurezza dichiarata
e
Sicurezza controllabile direttamente dal cliente
La domanda che pochi fanno sulla sicurezza IA enterprise
Quando un’azienda adotta una soluzione hyperscale:
- Dove sono fisicamente i dati?
- Chi gestisce i log?
- Quali sub-processor intervengono?
- Chi controlla la pipeline di indicizzazione?
- Come avviene la segregazione multi-tenant?
- Qual è il reale blast radius di un errore?
E soprattutto:
Se domani emerge un problema, quanto potere operativo abbiamo per intervenire direttamente?
Hyperscale vs architettura governata
Le piattaforme globali offrono:
- scalabilità immediata
- integrazione nativa con ecosistemi esistenti
- velocità di adozione
Ma richiedono implicitamente di accettare:
- un’infrastruttura condivisa,
- una governance mediata dal vendor,
- una supply chain estesa,
- una roadmap non controllabile.
Le architetture enterprise su misura (private, hybrid, on-prem), incluse piattaforme come AISAAC o AIDOCS quando implementate in modalità governata, ribaltano il paradigma:
- maggiore controllo del perimetro,
- auditabilità completa,
- riduzione della superficie di esposizione,
- responsabilità diretta sulla sicurezza.
Non sono automaticamente “più sicure”.
Sono più verificabili.
Ed è una differenza enorme.
Il punto critico: la complessità è il vero rischio
Gli incidenti citati non dimostrano che Copilot o ChatGPT siano insicuri.
Dimostrano che:
- sistemi complessi possono fallire,
- la governance è multilivello,
- la sicurezza è distribuita,
- la filiera conta quanto il modello.
In un ambiente multi-tenant globale, un errore può avere impatti estesi.
In un ambiente governato e circoscritto, l’eventuale errore è contenuto nel perimetro.
Conclusione: siamo sicuri o ci fidiamo?
La vera domanda per un CEO o un CTO oggi non è:
“È una soluzione enterprise?”
La domanda è:
“Quanta parte della sicurezza possiamo controllare e verificare noi?”
Le soluzioni hyperscale sono potenti, mature e in costante evoluzione.
Ma il controllo reale rimane, in parte, delegato.
Le architetture su misura richiedono più responsabilità.
Ma restituiscono controllo.
Il dubbio, a questo punto, è legittimo:
Stiamo scegliendo la soluzione più innovativa, o quella più coerente con il nostro livello di rischio accettabile?
Il presente articolo/studio è stato redatto a partire da una bozza iniziale generata mediante sistemi di Intelligenza Artificiale a supporto delle attività di ricerca e strutturazione dei contenuti. La versione finale è il risultato di un intervento umano qualificato, che ha curato la verifica critica delle informazioni, la coerenza argomentativa, l’accuratezza terminologica e il controllo delle fonti citate, al fine di garantire affidabilità, correttezza e valore informativo per il lettore.
