Rete paladina della sicurezza batte Microsoft bloccando il rilascio di Recall il 18 giugno
Aggiorniamo con soddisfazione sull’esito positivo dell’allarme sulla sicurezza informatica e dei dati personali pubblicato sul nostro articolo del 8 giugno titolato “Recall al mare“.
Siamo stati numerosi nel denunciare pubblicamente sul web la pericolosità derivante dalla nuova funzionalità Recall di Windows basata sull’intelligenza artificiale, priva delle necessarie misure di protezione dei dati e di quelli personali in particolare.
Il rilascio di Windows RECALL era previsto per il 18 giugno 2024 in anteprima pubblica sui PC Copilot+ di Microsoft ma come pubblicato sul blog di Microsoft “Recall passerà ora da un’esperienza di anteprima ampiamente disponibile per PC Copilot+ il 18 giugno 2024 a un’anteprima disponibile per la prima volta nel programma Windows Insider (WIP) nelle prossime settimane. Dopo aver ricevuto feedback su Recall dalla nostra comunità Windows Insider, come facciamo di solito, prevediamo di rendere presto disponibile Recall (anteprima) per tutti i PC Copilot+“.
Una battuta d’arresto che è l’anticamera della volontà di Microsoft di rendere Recall una funzione opzionale effettiva e di prevedere misure di sicurezza aggiuntive per recuperare la fiducia dell’utente in questa funzionalità che, come dettagliatamente riportato sul nostro articolo precedente, acquisisce screenshot di ogni finestra attiva sul PC degli utenti ogni paio di secondi.
La funzione Recall prevede, in breve, che le schermate salvate vengano analizzate da un modello di intelligenza artificiale di Azure, per estrarre informazioni dall’immagine e aggiungerle a un database SQLite. La funzionalità consente di eseguire ricerche in linguaggio umano per i dati estratti. Windows Recall estrae così gli screenshot per i termini cercati, semplificando la ricerca della cronologia.
Prevenire e bloccare in anticipo i comportamenti monopolistici lesivi della sicurezza è sicuramente meglio che curare infliggendo sanzioni che sostanzialmente si ripercuotono sugli utilizzatori dei servizi informatici che subiscono danni e devono intervenire per riparare le illeceità generate dai produttori.
Con l’estendersi del campo di applicazione dell’intelligenza artificiale i detentori dei modelli linguistici di grandi dimensioni – LLM – hanno l’obiettivo di fare bottino immediato dei dati, inclusi quelli personali, incuranti dei danni irreversibili procurati.
Ultimo prolema da considerare è rappresentato dalla rapida evoluzione dell’intelligenza artificiale che non lascia il tempo di eseguire farraginose manovre di valutazione e intervento. Occorre mettere in campo una competenza diffusa e proattiva nei campi della cybersecurity e della privacy che supporti i titolari e i responsabili delle pubblicazioni sul web.
Igino Addari
DPO Actainfo


