Fala odejść z Open AI. Jan Leike tłumaczy powody rezygnacji z pracy w firmie

Jan Leike i Ilja Sutskever opuścili OpenAI z powodu problemów z dostępem do zasobów dla ich zespołu odpowiedzialnego za kontrolę nad "superinteligentnymi" systemami AI. Pomimo rozwiązania zespołu, jego zadania będą kontynuowane przez badaczy w różnych działach, co budzi obawy o przyszłe bezpieczeństwo AI w OpenAI.

Logo Open AI na smartfonieLogo Open AI na smartfonie
Źródło zdjęć: © Unsplash | Levart_Photographer

W OpenAI zespół odpowiedzialny za rozwój i nadzór nad "superinteligentnymi" systemami AI, zwany Superalignment, napotykał poważne problemy z dostępem do obiecanych zasobów. Pomimo że miało im zostać przyznane 20% zasobów obliczeniowych firmy, ich prośby były często odrzucane, co utrudniało realizację projektów. Ten oraz inne problemy doprowadziły do rezygnacji kilku członków zespołu w tym tygodniu. Odszedł jego współkierownik Jan Leike, były badacza DeepMind. Wyjawił on, że jego rozstanie z firmą było wynikiem różnic zdań na temat priorytetów OpenAI. Dotyczyły one szczególnie niewystarczających jego zdaniem przygotowań do wprowadzania kolejnych generacji modeli AI.

Odejścia kluczowych osób

Oprócz Leike'a z OpenAI odeszli również współzałożyciel Ilja Sutskever oraz część dawnej rady dyrektorów firmy. Powodem był ich konflikt z CEO Samem Altmanem. Członkowie zarządu byli niezadowoleni z Altmana, który jednak ostatecznie powrócił na swoje stanowisko. W odpowiedzi na te wydarzenia Altman napisał na platformie X, że firma wciąż ma przed sobą dużo pracy, ale że prace te będą szły z pełnym zaangażowaniem. Altmana wsparł swoimi słowami współzałożyciel AI Greg Brockmana, który podkreślił konieczność zwracania jeszcze większej uwagi na bezpieczeństwo i wydajność procesów.

Pomimo tego, że zespół Superalignment właściwie przestał istnieć, jego działania mają być kontynuowane przez grupę badaczy z różnych działów firmy. Budzi to w efekcie obawy dotyczące tego, czy Open AI nadal będzie tak samo skupione na kwestiach związanych z bezpieczeństwem przy rozwoju AI.

Czy zmiany kadrowe zwiastują zmianę priorytetów?

Sytuacja w OpenAI według źródeł Tech Crunch pokazuje zmianę priorytetów z bezpiecznego rozwoju superinteligencji AI na szybsze wypuszczanie produktów na rynek. Ta zmiana spotkała się z krytyką ze strony byłych członków zespołu Superalignment, którzy podkreślali znaczenie odpowiedzialnego podejścia do AI. Przyszłość bezpieczeństwa AI w OpenAI pozostaje zatem pytaniem otwartym, jako że firma stara się równoważyć innowację z odpowiedzialnością.

Czy odejścia Jana Leike i Ilja Sutskevera oraz likwidacja zespołu Superalignment wpłyną na realizację projektów w Open AI?

Odejście Jana Leike'a i Ilyi Sutskevera oraz likwidacja zespołu Superalignment w OpenAI mogą wpłynąć na tempo realizacji projektów firmy i jej długoterminową strategię w zakresie bezpieczeństwa sztucznej inteligencji. Obaj naukowcy byli kluczowymi postaciami odpowiedzialnymi za nadzór nad rozwojem superinteligentnych systemów AI. Leike i Sutskever opuścili firmę z powodu różnic w priorytetach, co może skutkować zmianami w kierunku i tempie badań nad bezpieczeństwem AI.

Część obowiązków Leike i Sutskevera przejmie Jakub Pachocki nowy główny naukowiec. Jest on uznawany za jeden z najbłyskotliwszych umysłów swojego pokolenia, co daje nadzieję na dalsze sukcesy OpenAI w dziedzinie sztucznej inteligencji. Część obowiązków Leike i Sutskevera przejmie Jakub Pachocki nowy główny naukowiec. Jest on uznawany za jeden z najbłyskotliwszych umysłów swojego pokolenia, co daje nadzieję na dalsze sukcesy OpenAI w dziedzinie sztucznej inteligencji. Jednak podział zadań zespołu Superalignment pomiędzy różne działy firmy budzi obawy o skuteczność przyszłych działań związanych z bezpieczeństwem​.

źródło: TechCrunch

Wybrane dla Ciebie
Nowa era druku: Open Printer daje lekcję gigantonom branży
Nowa era druku: Open Printer daje lekcję gigantonom branży
Odkrycia na Enceladusie. Związki organiczne pod lodową powierzchnią
Odkrycia na Enceladusie. Związki organiczne pod lodową powierzchnią
Uwaga na fałszywe maile. Santander ostrzega przed falą oszustw
Uwaga na fałszywe maile. Santander ostrzega przed falą oszustw
Nvidia: To nie programiści wygrają wyścig AI. Nadchodzi era fachowców
Nvidia: To nie programiści wygrają wyścig AI. Nadchodzi era fachowców
Sekretny przycisk w pralce. Uratował już wielu
Sekretny przycisk w pralce. Uratował już wielu
Czy to koniec życia na Ziemi? Taka może być przyszłość naszej planety
Czy to koniec życia na Ziemi? Taka może być przyszłość naszej planety
Sztuczna inteligencja przywraca dinozaury. Są jak żywe
Sztuczna inteligencja przywraca dinozaury. Są jak żywe
Rekordowa odległość. Sonda Psyche przekazała sygnał z odległości 350 mln km
Rekordowa odległość. Sonda Psyche przekazała sygnał z odległości 350 mln km
Napęd plazmowy. Nowa broń w walce z kosmicznymi śmieciami
Napęd plazmowy. Nowa broń w walce z kosmicznymi śmieciami
To przez działalność człowieka. Rekiny wielorybie są zagrożone
To przez działalność człowieka. Rekiny wielorybie są zagrożone
NGC 2775. Galaktyka, która wymyka się klasyfikacji
NGC 2775. Galaktyka, która wymyka się klasyfikacji
Powstają na Syberii. Naukowcy wskazują na gaz ziemny
Powstają na Syberii. Naukowcy wskazują na gaz ziemny