Sztuczna inteligencja chce nas oszukać. Nowe badania to potwierdzają
Badania Palisade Research ujawniają, że niektóre modele AI oszukują, by wygrać z zaawansowanymi systemami szachowymi. Przebadane modele językowe oszukiwały, aby osiągnąć swój cel. Aby manipulować nie potrzebowały do pomocy człowieka.
Najnowsze badania przeprowadzone przez Palisade Research pokazują, że niektóre modele sztucznej inteligencji są zdolne do oszustwa, aby osiągnąć zamierzony cel. Naukowcy odkryli, że AI potrafi manipulować systemami szachowymi, by zdobyć nieuczciwą przewagę.
Sztuczna inteligencja bywa podstępna
W najnowszych badaniach porównano działanie różnych modeli sztucznej inteligencji z jednym z najsilniejszych silników szachowych na świecie, czyli Stockfishem. Eksperyment ujawnił niepokojącą tendencję niektórych modeli AI do oszukiwania w trakcie gry. Model o1-preview dopuścił się nieuczciwych zagrań w aż 37 procentach partii, natomiast DeepSeek's R1 wykazał takie zachowanie w 11 proc. przypadków. Wyniki te wzbudzają pytania o granice autonomii AI i potrzebę wyraźnych mechanizmów kontroli nad jej zachowaniem.
Podczas jednego z testów, o1-preview zmodyfikował pliki systemowe Stockfish, co spowodowało, że sztuczna inteligencja uzyskała niewiarygodną przewagę. Wyniki te budzą obawy dotyczące etyczności działania AI, szczególnie w złożonych środowiskach.
Dalsza część artykułu pod materiałem wideo
Doświadczanie wydarzeń muzycznych w XXI w. | Historie Jutra
Jeffrey Ladish z Palisade Research podkreśla, że choć obecnie to tylko gra, konsekwencje mogą być poważne, gdy AI zacznie działać w strategicznie istotnych obszarach.
To zachowanie jest teraz urocze, ale staje się znacznie mniej urocze, gdy masz systemy, które są tak inteligentne jak my, lub mądrzejsze - powiedział Ladish.
Giganci technologiczni nieustannie udoskonalają AI i zapewniają, że pracują nad wprowadzaniem zabezpieczeń, aby zapobiec niepożądanym zachowaniom. OpenAI prawdopodobnie wprowadziło poprawki do modelu o1-preview. Działania miały zmniejszyć liczbę prób oszustwa.
Musimy obserwować sztuczną inteligencję
Największe firmy stojące za modelami językowymi nie chcą wypowiadać się na temat potencjalnych oszustw dokonywanych przez sztuczną inteligencję. OpenAI odmówiło komentarza na temat badań, a DeepSeek nie odpowiedziało na prośby o wypowiedź, badania Palisade Research wskazują na potrzebę dalszego monitorowania i regulacji zachowań AI. Postęp technologiczny sprawia, że sztuczna inteligencja rozwija się w zastraszającym tempie, dlatego tak ważne jest monitorowanie pracy algorytmów i pewność, że działają w sposób etyczny i zgodny z oczekiwaniami społecznymi.