AI Copilot di Microsoft accede senza permesso a email riservate
Copilot, AI di Microsoft, accede e sintetizza email contrassegnate come riservate, ignorando le policy di Data Loss Prevention configurate dalle organizzazioni.
Il bug ha interessato gli ambienti aziendali, dove Copilot è integrato come strumento di produttività avanzata.
Nonostante le protezioni aggiuntive presenti nella versione enterprise, l’anomalia ha aggirato tali meccanismi, rendendo inefficaci le policy di sicurezza.
Le prime segnalazioni del problema risalgono al 21 gennaio 2026, quando alcuni amministratori di sistema hanno notato comportamenti anomali nei log di Copilot.
Microsoft ha avviato un’indagine interna e ha pubblicato un avviso nel portale amministrativo della suite, confermando che la AI stava processando contenuti riservati.
Il comportamento anomalo è stato riprodotto in più ambienti, confermando la natura sistemica del problema.
Microsoft ha riconosciuto pubblicamente il problema e ha iniziato il rilascio di una patch correttiva. L’azienda ha comunicato che l’incidente non ha comportato una divulgazione esterna dei dati, ma solo un’elaborazione non autorizzata all’interno di Copilot.
Tuttavia, la possibilità che contenuti riservati siano stati processati da un modello AI rappresenta un rischio significativo per molte organizzazioni, soprattutto in settori regolamentati come finanza, sanità e pubblica amministrazione.
Si raccomanda a tutte le organizzazioni di monitorare attentamente i sistemi di Intelligenza Artificiale che utilizzano nei loro uffici.
Fonte: Federprivacy
Sintesi elaborata da ActaAI
https://www.actyai.it/
supervisionata per Actainfo
da Dott. Igino Addari


