Memorizzazione riservata nell’era dell’AI clinica: la sfida dei ricercatori del MIT

Un nuovo studio pone sotto la lente d’ingrandimento il rischio di memorizzazione dei dati sensibili dei pazienti da parte dell’intelligenza artificiale nel mondo clinico. L’equipe di ricerca del MIT, guidata da Alex Ouyang e Abdul Latif Jameel, ha sviluppato una serie di test per verificare l’integrità dei modelli AI. L’obiettivo è garantire che questi sistemi non siano una minaccia alla privacy dei pazienti.

Il concetto di privacy del paziente affonda le sue radici nell’Oath Ippocratico, uno dei primi e più conosciuti testi di etica medica. In un’epoca in cui la confidenzialità sembra sempre più a rischio a causa di algoritmi affamati di dati e cyber attacchi, il settore medico rappresenta uno dei pochi ambiti in cui la riservatezza continua a giocare un ruolo centrale. La fiducia che il paziente ripone nel medico, infatti, si basa sulla certezza che le sue informazioni sensibili siano tutelate.

Tuttavia, i ricercatori del MIT hanno rilevato che i modelli di intelligenza artificiale addestrati su registri sanitari elettronici di-identificati potrebbero ‘memorizzare’ informazioni specifiche del paziente, creando potenziali violazioni della privacy. Il problema, come spiega Sana Tonekaboni, autrice principale del documento, si presenta quando il modello basa le sue predizioni su un unico registro del paziente, potendo così rivelare dati sensibili.

Per affrontare questo potenziale rischio, il team di ricerca ha sviluppato una serie di test volti a misurare vari tipi di incertezza, valutando quanto possano essere dannosi per i pazienti. Questi strumenti di valutazione si concentrano sulle possibilità concrete di attacco e sulla quantità di informazioni di cui un aggressore avrebbe bisogno per esporre dati sensibili.

Nell’era della digitalizzazione dei registri medici, le violazioni di dati sono diventate sempre più frequenti. In particolare, i pazienti con patologie uniche sono particolarmente vulnerabili, in quanto possono essere facilmente identificati anche con dati de-identificati. È dunque fondamentale, come sottolinea Tonekaboni, garantire livelli di protezione elevati per questi pazienti.

Infine, i ricercatori prevedono di ampliare il lavoro al fine di includere esperti legali e clinici e di privacy. È fondamentale, infatti, proteggere i dati sanitari dei pazienti, che non dovrebbero essere accessibili ad altri.

Lascia un commento

DeepSeek: Intervista al CEO di una delle startup AI emergenti in Cina

DeepSeek, una startup AI cinese, sta sviluppando tecnologie avanzate per la ricerca di informazioni in ambienti complessi.

Google testa gli Audio Overviews: podcast AI direttamente nei risultati di ricerca

Google avvia una sperimentazione per integrare riassunti audio generati dall'IA direttamente nei risultati di ricerca, offrendo un'esperienza più interattiva e accessibile agli utenti.

Sergey Brin

Sergey Brin esorta Google DeepMind ad accelerare verso l’AGI, criticando i “nanny products”

Sergey Brin ha inviato una nota ai dipendenti di Google DeepMind, sottolineando l'urgenza di competere nella corsa all'AGI.​

Presenta