Fala odejść z Open AI. Jan Leike tłumaczy powody rezygnacji z pracy w firmie
Jan Leike i Ilja Sutskever opuścili OpenAI z powodu problemów z dostępem do zasobów dla ich zespołu odpowiedzialnego za kontrolę nad "superinteligentnymi" systemami AI. Pomimo rozwiązania zespołu, jego zadania będą kontynuowane przez badaczy w różnych działach, co budzi obawy o przyszłe bezpieczeństwo AI w OpenAI.
19.05.2024 | aktual.: 19.05.2024 17:57
W OpenAI zespół odpowiedzialny za rozwój i nadzór nad "superinteligentnymi" systemami AI, zwany Superalignment, napotykał poważne problemy z dostępem do obiecanych zasobów. Pomimo że miało im zostać przyznane 20% zasobów obliczeniowych firmy, ich prośby były często odrzucane, co utrudniało realizację projektów. Ten oraz inne problemy doprowadziły do rezygnacji kilku członków zespołu w tym tygodniu. Odszedł jego współkierownik Jan Leike, były badacza DeepMind. Wyjawił on, że jego rozstanie z firmą było wynikiem różnic zdań na temat priorytetów OpenAI. Dotyczyły one szczególnie niewystarczających jego zdaniem przygotowań do wprowadzania kolejnych generacji modeli AI.
Odejścia kluczowych osób
Oprócz Leike'a z OpenAI odeszli również współzałożyciel Ilja Sutskever oraz część dawnej rady dyrektorów firmy. Powodem był ich konflikt z CEO Samem Altmanem. Członkowie zarządu byli niezadowoleni z Altmana, który jednak ostatecznie powrócił na swoje stanowisko. W odpowiedzi na te wydarzenia Altman napisał na platformie X, że firma wciąż ma przed sobą dużo pracy, ale że prace te będą szły z pełnym zaangażowaniem. Altmana wsparł swoimi słowami współzałożyciel AI Greg Brockmana, który podkreślił konieczność zwracania jeszcze większej uwagi na bezpieczeństwo i wydajność procesów.
Pomimo tego, że zespół Superalignment właściwie przestał istnieć, jego działania mają być kontynuowane przez grupę badaczy z różnych działów firmy. Budzi to w efekcie obawy dotyczące tego, czy Open AI nadal będzie tak samo skupione na kwestiach związanych z bezpieczeństwem przy rozwoju AI.
Czy zmiany kadrowe zwiastują zmianę priorytetów?
Sytuacja w OpenAI według źródeł Tech Crunch pokazuje zmianę priorytetów z bezpiecznego rozwoju superinteligencji AI na szybsze wypuszczanie produktów na rynek. Ta zmiana spotkała się z krytyką ze strony byłych członków zespołu Superalignment, którzy podkreślali znaczenie odpowiedzialnego podejścia do AI. Przyszłość bezpieczeństwa AI w OpenAI pozostaje zatem pytaniem otwartym, jako że firma stara się równoważyć innowację z odpowiedzialnością.
Czy odejścia Jana Leike i Ilja Sutskevera oraz likwidacja zespołu Superalignment wpłyną na realizację projektów w Open AI?
Odejście Jana Leike'a i Ilyi Sutskevera oraz likwidacja zespołu Superalignment w OpenAI mogą wpłynąć na tempo realizacji projektów firmy i jej długoterminową strategię w zakresie bezpieczeństwa sztucznej inteligencji. Obaj naukowcy byli kluczowymi postaciami odpowiedzialnymi za nadzór nad rozwojem superinteligentnych systemów AI. Leike i Sutskever opuścili firmę z powodu różnic w priorytetach, co może skutkować zmianami w kierunku i tempie badań nad bezpieczeństwem AI.
Część obowiązków Leike i Sutskevera przejmie Jakub Pachocki nowy główny naukowiec. Jest on uznawany za jeden z najbłyskotliwszych umysłów swojego pokolenia, co daje nadzieję na dalsze sukcesy OpenAI w dziedzinie sztucznej inteligencji. Część obowiązków Leike i Sutskevera przejmie Jakub Pachocki nowy główny naukowiec. Jest on uznawany za jeden z najbłyskotliwszych umysłów swojego pokolenia, co daje nadzieję na dalsze sukcesy OpenAI w dziedzinie sztucznej inteligencji. Jednak podział zadań zespołu Superalignment pomiędzy różne działy firmy budzi obawy o skuteczność przyszłych działań związanych z bezpieczeństwem.
źródło: TechCrunch
Marcin Wierzchoś, dziennikarz Gadżetomanii