Geoffrey Hinton, naukowiec nazywany często „ojcem chrzestnym sztucznej inteligencji” odszedł z pracy w Google’u, by ostrzegać przed zagrożeniami związanymi z AI. – Myślałem, że AI stanie się bardziej inteligentna niż ludzie za 30-50 lat lub później; oczywiście teraz już tak nie sądzę – powiedział Hinton w wywiadzie dla „New York Timesa”.
Rozwój modeli sztucznej inteligencji, takich jak związany z Microsoftem ChatGPT czy konkurencyjnego oprogramowania opracowywanego przez Google’a jest coraz bardziej niebezpieczny – ostrzega naukowiec.
Internet może zostać zalany przez fałszywe grafiki, nagrania i teksty, tak że przeciętny odbiorca „nie będzie już w stanie odróżnić, co jest prawdą” – uważa Hinton.
Technologia AI może też wywrócić do góry nogami dotychczasowy rynek pracy, na razie jest w stanie zastąpić przede wszystkim pracowników zajmujących się żmudnymi zadaniami, takich jak asystenci, tłumacze czy sekretarki, ale to się może zmienić – zaznacza rozmówca „NYT” w opublikowanym w poniedziałek wywiadzie.
Jaka przyszłość sztucznej inteligencji?
Przyszłe wersje AI mogą być ostatecznie zagrożeniem dla ludzkości, ponieważ analizują ogromne ilości danych i często uczą się zupełnie nieoczekiwanego zachowania – podkreśla Hinton. To ma znaczenie, ponieważ ludzie i firmy pozwalają sztucznej inteligencji nie tylko na pisanie oprogramowania, ale również na uruchamianie go, co pewnego dnia może doprowadzić do powstania autonomicznej broni – dodaje.
Trudno jest także zapobiec temu, by AI nie była wykorzystywana przez złych ludzi do złych celów – ocenia Hinton. Wyścig między koncernami technologicznymi może przerodzić się w wyścig między państwami, którego mogą nie być w stanie kontrolować międzynarodowe regulacje, jak udało się to zrobić z bronią jądrową – ostrzega.
Największą nadzieją jest porozumienie naukowców dotyczące sposobów panowania nad AI; sądzę, że ta technologia nie powinna być rozwijana do czasu, gdy uda się zrozumieć, czy możemy ją kontrolować – konkluduje badacz.
Urodzony w Wielkiej Brytanii Hinton przez wiele lat pracował na uniwersytecie w kanadyjskim Toronto. Przez całą karierę akademicką i zawodową zajmował się sztuczną inteligencją, w szczególności sieciami neuronowymi. Jak podkreśla, nie odszedł z Google’a, by krytykować poczynania tej konkretnej firmy, ale by mówić o zagrożeniach związanych z rozwojem sztucznej inteligencji bez zwracania uwagi na to, jak może to wpłynąć na Google’a.
„Google zachowuje się bardzo odpowiedzialnie” – zaznaczył Hinton w poniedziałkowym wpisie na Twitterze.