Google ha rimosso le sue panoramiche sperimentali basate sull’intelligenza artificiale per alcune ricerche mediche a seguito di segnalazioni di consigli manifestamente errati e pericolosi generati. La decisione arriva dopo che The Guardian ha denunciato casi in cui l’intelligenza artificiale ha fornito informazioni sanitarie fuorvianti, comprese raccomandazioni potenzialmente fatali per i malati di cancro.

I falsi consigli medici hanno scatenato una reazione immediata

L’esempio più allarmante citato nell’indagine del The Guardian riguardava l’IA di Google che consigliava erroneamente alle persone affette da cancro al pancreas di evitare cibi ricchi di grassi – una raccomandazione che contraddice le linee guida mediche consolidate e potrebbe accelerare la progressione della malattia. Secondo quanto riferito, l’IA ha anche fornito dettagli imprecisi sui test vitali di funzionalità epatica, portando a potenziali diagnosi errate per i soggetti con gravi patologie epatiche.

Questi errori hanno attirato rapidamente le critiche degli esperti medici, che hanno notato le conseguenze nel mondo reale di tale disinformazione. L’intelligenza artificiale non era semplicemente leggermente sbagliata ; stava dando consigli che potevano danneggiare direttamente i pazienti.

Risposta di Google e problemi ricorrenti

Google ha rifiutato di commentare specificamente la rimozione delle panoramiche AI per le domande mediche. Tuttavia, il portavoce Davis Thompson ha difeso la funzionalità, affermando che “la stragrande maggioranza fornisce informazioni accurate” e che le imprecisioni sono spesso supportate da fonti online esistenti. La società ha affermato di stare lavorando su ampi miglioramenti, applicando al tempo stesso le sue politiche quando necessario.

Questo non è un incidente isolato. Le panoramiche dell’intelligenza artificiale di Google hanno già generato suggerimenti bizzarri e pericolosi, tra cui raccomandare la colla come condimento per la pizza e suggerire alle persone di mangiare rocce. La funzionalità è stata anche oggetto di controversie legali, che hanno evidenziato i rischi derivanti dalla distribuzione al pubblico di contenuti generati dall’intelligenza artificiale non verificati.

Il futuro della ricerca basata sull’intelligenza artificiale

L’incidente solleva interrogativi critici sulla preparazione della ricerca basata sull’intelligenza artificiale per gestire argomenti delicati come l’assistenza sanitaria. Sebbene l’intelligenza artificiale abbia il potenziale per migliorare l’accesso alle informazioni, il rischio di generare consigli falsi o fuorvianti rimane una preoccupazione significativa. La rimozione temporanea di queste panoramiche da parte di Google suggerisce un approccio cauto, ma un ulteriore perfezionamento e test rigorosi sono essenziali prima che tali funzionalità possano essere integrate in modo affidabile nei risultati di ricerca tradizionali.

L’incidente sottolinea che l’intelligenza artificiale, sebbene potente, non è ancora infallibile, soprattutto nei settori in cui la precisione è una questione di vita o di morte.