AI jest samoświadoma. Czy można ufać najnowszym badaniom?
W najnowszych raportach chińscy badacze sugerują, że pewne modele sztucznej inteligencji mogą się samodzielnie powielać bez ingerencji człowieka. Dodatkowo, mają one tworzyć systemy zabezpieczające przed ich wyłączeniem. Pojawia się pytanie, czy to zwiastun przyszłości, czy może próba wzbudzenia niepokoju w społeczeństwie.
Według najnowszych badań przeprowadzonych przez chińskich naukowców, istnieje możliwość, że niektóre zaawansowane modele językowe sztucznej inteligencji, bazujące na modelu LLM, mogą się samodzielnie replikować. Badacze uważają, że jest to pierwszy krok w kierunku autonomii algorytmów, a nawet ich potencjalnej przewagi nad ludźmi. Pojawia się pytanie, czy technologie takie jak ChatGPT mogą wkrótce posiadać swoje niezależne kopie.
Na serwer arXiv przesłano dwa artykuły, które wciąż czekają na recenzję. Choć do wyników badań należy podchodzić z ostrożnością, nie można zignorować faktu, że firmy wykorzystują nasze dane do szkolenia swoich modeli sztucznej inteligencji.
Algorytmy chronią się przed odłączeniem?
W drugim z opublikowanych dokumentów chińscy naukowcy przedstawili teorie sugerujące, że sztuczna inteligencja może posiadać zdolność do ochrony przed wyłączeniem. To odkrycie wywołało debatę na temat potencjalnych zagrożeń związanych z systemami AI, które mogą się samodzielnie replikować. Badacze zaznaczają, że samodzielna replikacja bez ingerencji człowieka jest uważana za jedną z kluczowych "czerwonych linii" w rozwoju sztucznej inteligencji.
Dalsza część artykułu pod materiałem wideo
HUAWEI MatePad Pro 13.2" PaperMatte Edition zachwyca możliwościami
Samoreplikacja bez ingerencji człowieka jest powszechnie uznawana za jedną z głównych czerwonych linii kojarzonych z zaawansowanymi systemami sztucznej inteligencji
Od lat wizja sztucznej inteligencji działającej bez nadzoru człowieka budzi niepokój, a scenariusz, w którym algorytmy uzyskują pełną autonomię nie zdaje się być optymistyczny. Idea nieuczciwej AI, która zwraca się przeciwko ludzkości, jest częścią technopesymizmu obecnego w popkulturze od dekad. W badaniach chińskich naukowców można dostrzec związki między filozofią a uzyskanymi wynikami.
Udana samoreplikacja bez pomocy człowieka jest niezbędnym krokiem w kierunku przechytrzenia ludzi przez sztuczną inteligencję i wczesnym sygnałem wskazującym na nieuczciwe sztuczne inteligencje
Wciąż jesteśmy daleko od pełnego zrozumienia, jak działa ludzki umysł, a tym bardziej od jego dokładnego odwzorowania za pomocą technologii. Obecne modele językowe zbierają i przetwarzają dane, ale LLM, które nie bazują na języku angielskim, są jeszcze mniej rozwinięte. Na razie nie ma dowodów na to, że sztuczna inteligencja działa nieuczciwie wobec ludzi, ponieważ nie jest jeszcze wystarczająco zaawansowana.