Sztuczna inteligencja bardziej przeraża niż apokalipsa. Oto wyniki badań
Nowe badania z Uniwersytetu w Zurychu pokazują, że ludzie bardziej obawiają się bieżących zagrożeń związanych z AI niż odległych katastrof apokaliptycznych.
Naukowcy z Uniwersytetu w Zurychu przeprowadzili badania, które ujawniają, że ludzie bardziej martwią się o aktualne zagrożenia związane z rozwojem sztucznej inteligencji (AI), takie jak dezinformacja i utrata pracy, niż o odległe katastrofy apokaliptyczne. W badaniu wzięło udział ponad 10 tys. respondentów z Wielkiej Brytanii i USA. Wyniki zostały opublikowane w czasopiśmie "PNAS".
Jakie zagrożenia związane z AI budzą największy niepokój?
Badania przeprowadzone przez zespół politologów z Uniwersytetu w Zurychu obejmowały trzy duże eksperymenty online. Uczestnicy byli narażeni na różne nagłówki wiadomości dotyczące AI: od katastrofalnych scenariuszy, przez bieżące zagrożenia, aż po potencjalne korzyści.
"W trzech [...] eksperymentach, uczestnicy byli narażeni na nagłówki wiadomości, które albo przedstawiały sztuczną inteligencję jako katastrofalne ryzyko, podkreślały jej natychmiastowy wpływ społeczny lub podkreślały jej potencjalne korzyści" - piszą autorzy badania, Emma Hoes i Fabrizio Gilardi.
Dalsza część artykułu pod materiałem wideo
Czy debata publiczna powinna zmienić kierunek?
Wyniki badań sugerują, że nawet po wystawieniu na apokaliptyczne ostrzeżenia, uczestnicy pozostawali czujni na obecne problemy. "Nasze badanie pokazuje, że dyskusja o długoterminowych zagrożeniach nie odbywa się automatycznie kosztem czujności wobec obecnych problemów" - przekazała Emma Hoes portalowi SciTechDaily. Fabrizio Gilardi dodaje, że "dyskurs publiczny nie powinien być 'albo-albo'. Potrzebne jest równoczesne zrozumienie i docenienie zarówno bieżących, jak i potencjalnych przyszłych wyzwań".
Badanie dostarcza ważnych dowodów empirycznych, które mogą wpłynąć na toczące się debaty naukowe i polityczne dotyczące społecznych implikacji AI. Wskazuje na potrzebę równoległego poruszania zarówno krótkoterminowych, jak i długoterminowych zagrożeń związanych z AI.