Google ritira funzioni di Intelligenza Artificiale in ambito sanitario per gravi errori

Non sempre avanzamento tecnologico rima con affidabilità. Questo è quanto emerge da una recente indagine condotta dal The Guardian, che ha portato alla rimozione da parte di Google di alcune funzioni di Intelligenza Artificiale (AI) dedicate alla sanità. L’indagine ha infatti rivelato una serie di imperfezioni potenzialmente pericolose per la salute degli utenti.

Il cuore del problema risiede nelle sintesi sanitarie generate dall’AI di Google, responsabili di fornire informazioni mediche false o fuorvianti, spesso collocate in cima ai risultati di ricerca. Questo potrebbe portare pazienti seriamente malati a concludere erroneamente di essere in buona salute. In particolare, l’indagine ha messo in luce un grave errore relativo al cancro al pancreas: l’AI suggeriva ai pazienti di evitare cibi ad alto contenuto di grassi, un consiglio in netto contrasto con le linee guida mediche standard.

Sebbene queste scoperte siano state evidenziate, Google ha disattivato solo le sintesi relative alle analisi del fegato, lasciando accessibili altre risposte potenzialmente dannose. Vanessa Hebditch, direttore delle comunicazioni e delle politiche della British Liver Trust, ha sottolineato la complessità nell’interpretazione dei risultati di un test di funzionalità epatica, e la pericolosità della falsa rassicurazione fornita dall’AI.

Ciononostante, Google ha rifiutato di commentare le specifiche rimozioni al Guardian, sottolineando, attraverso un portavoce, l’investimento nella qualità delle sintesi AI, la cui maggior parte, a loro dire, forniscono informazioni accurate.

In realtà, il problema sorge dalla concezione stessa del sistema. Google ha sviluppato le sintesi AI per mostrare informazioni supportate dai migliori risultati web del suo sistema di classificazione delle pagine. Tuttavia, quest’ultimo ha da tempo problemi con contenuti truccati per il SEO e spam. Il sistema alimenta quindi l’AI con questi risultati inaffidabili. L’AI, a sua volta, li riassume con un tono autorevole che può ingannare gli utenti.

Il Guardian ha inoltre scoperto che digitando leggere variazioni delle query originali su Google, le sintesi AI appaiono ancora. Alla domanda sul perché queste sintesi AI non siano state anch’esse rimosse, Google ha risposto che sono collegate a fonti rinomate e affidabili e informano le persone circa l’importanza di cercare consigli di esperti.

La controversia riguardante le sintesi AI non è un caso isolato. Infatti, la funzione ha precedentemente consigliato alle persone di mettere la colla sulla pizza e di mangiare pietre. Gli utenti hanno quindi scoperto che inserendo delle parolacce nelle ricerche, le sintesi AI si disattivano completamente.

Lascia un commento

L’open source nell’intelligenza artificiale: una via obbligata o un rischio calcolato?

Negli ultimi anni, il dibattito sull'open source nell'ambito dell'intelligenza artificiale ha raggiunto livelli sempre più accesi.

L’intelligenza Artificiale orientata alla privacy nei data center europei

Il sipario si solleva, la scena è pronta. Fari puntati sul nuovo protagonista del palcoscenico della tecnologia: un chatbot dotato di intelligenza artificiale che eleva la privacy a priorità assoluta, immerso nei data center europei.

Comunicati stampa sull’IA: possiamo davvero fidarci?

Negli ultimi anni, i laboratori di intelligenza artificiale (IA) hanno rilasciato modelli sempre più avanzati, spesso accompagnati da comunicati stampa che ne esaltano le capacità. Tuttavia, è fondamentale esaminare criticamente queste dichiarazioni, poiché possono presentare informazioni fuorvianti o esagerate.

Presenta