Firma Google wyłączyła eksperymentalne recenzje sztucznej inteligencji w przypadku niektórych zapytań medycznych po zgłoszeniach dotyczących generowania przez system ewidentnie nieprawidłowych i niebezpiecznych porad. Decyzja ta jest następstwem raportu opublikowanego w The Guardian, który dokumentuje przypadki sztucznej inteligencji dostarczającej wprowadzających w błąd informacji medycznych, w tym potencjalnie śmiertelnych porad pacjentom chorym na raka.

Fałszywe porady medyczne powodują natychmiastową negatywną reakcję

Najbardziej niepokojącym przykładem przytoczonym w dochodzeniu The Guardian było to, że sztuczna inteligencja błędnie zalecała osobom chorym na raka trzustki unikanie pokarmów wysokotłuszczowych, co jest sprzeczne z ogólnie przyjętymi zaleceniami medycznymi i może przyspieszyć postęp choroby. Zgłoszono również, że sztuczna inteligencja dostarcza niedokładnych danych na temat parametrów życiowych wątroby, co prowadzi do potencjalnej błędnej diagnozy u osób z ciężką chorobą wątroby.

Błędy te szybko spotkały się z krytyką ze strony ekspertów medycznych, którzy zwrócili uwagę na rzeczywiste konsekwencje takich dezinformacji. Sztuczna inteligencja była nie tylko nieco niedokładna ; udzielał rad, które mogły bezpośrednio zaszkodzić pacjentom.

Reakcja Google i bieżące problemy

Google odmówił komentarza w sprawie wyłączania przeglądania sztucznej inteligencji w przypadku zapytań medycznych. Jednak rzecznik firmy Davis Thompson bronił tej funkcji, twierdząc, że „zdecydowana większość podaje dokładne informacje”, a nieścisłości często potwierdzają istniejące źródła internetowe. Firma stwierdziła, że ​​pracuje nad szerokimi ulepszeniami, egzekwując jednocześnie swoje zasady, jeśli zajdzie taka potrzeba.

To nie jest odosobniony przypadek. Recenzje sztucznej inteligencji Google generowały już dziwne i niebezpieczne sugestie, w tym polecanie kleju jako polewy do pizzy i sugerowanie jedzenia kamieni. Funkcja ta była również przedmiotem sporu sądowego, w którym podkreślono ryzyko związane z publicznym udostępnianiem niezweryfikowanych treści generowanych przez sztuczną inteligencję.

Przyszłość wyszukiwania AI

Incydent rodzi krytyczne pytania dotyczące gotowości wyszukiwania AI do obsługi wrażliwych tematów, takich jak opieka zdrowotna. Chociaż sztuczna inteligencja może poprawić dostęp do informacji, głównym problemem pozostaje ryzyko generowania fałszywych lub wprowadzających w błąd porad. Tymczasowe wyłączenie przez Google tych recenzji sugeruje ostrożne podejście, jednak potrzebne są dalsze udoskonalenia i szeroko zakrojone testy, zanim możliwe będzie niezawodne zintegrowanie takich funkcji z głównymi wynikami wyszukiwania.

Ten incydent uwydatnia, że ​​sztuczna inteligencja, choć potężna, nie jest jeszcze bezbłędna, szczególnie w obszarach, w których dokładność ma kluczowe znaczenie dla życia i śmierci.