Foto: Freepik

OpenAI informovala Bloomberg, že se rozhodla více integrovat tuto skupinu do svého širšího výzkumného úsilí, aby dosáhla svých cílů v oblasti bezpečnosti. Nicméně, podle sérií tweetů od Jana Leikeho, jednoho z vedoucích týmu, který nedávno společnost opustil, mezi bezpečnostním týmem a širším vedením společnosti existovalo značné napětí.

Leike ve svém prohlášení na platformě X uvedl, že tým Superalignment bojoval o dostatečné zdroje pro svůj výzkum. „Vytváření chytřejších strojů než člověk je ze své podstaty nebezpečné,“ napsal Leike. „OpenAI má obrovskou odpovědnost vůči celému lidstvu. V posledních letech však kultura bezpečnosti a procesy ustoupily lesklým produktům.“ Společnost OpenAI se k této záležitosti odmítla vyjádřit pro Engadget.

Foto: Freepik

Odchod Leikeho přišel krátce po oznámení hlavního vědce OpenAI, Ilyi Sutskevara, že rovněž opouští společnost. Sutskevar byl nejen jedním z vedoucích týmu Superalignment, ale také spoluzakladatelem OpenAI. Jeho odchod následoval šest měsíců po kontroverzním rozhodnutí propustit generálního ředitele Sama Altmana, což vedlo k vnitřní krizi ve společnosti. Po masivní interní vzpouře byl Altman nakonec znovu dosazen do funkce.

Při založení týmu Superalignment OpenAI oznámila, že hodlá během čtyř let věnovat 20 procent svého výpočetního výkonu na řešení problémů souvisejících s kontrolou výkonných systémů AI. Nicméně, jak Leike uvedl na X, tým měl potíže s získáváním potřebných zdrojů a prováděním kritického výzkumu. Podle jeho slov tým čelil značným překážkám a neshodám s vedením ohledně hlavních priorit společnosti.

Další odchody z týmu Superalignment následovaly v průběhu několika měsíců. V dubnu OpenAI údajně propustila dva výzkumníky, Leopolda Aschenbrennera a Pavla Izmailova, kvůli podezření z úniku informací.

OpenAI oznámila, že budoucí bezpečnostní úsilí povede John Schulman, spoluzakladatel společnosti, který se specializuje na výzkum velkých jazykových modelů. Jakub Pachocki, ředitel, který vedl vývoj GPT-4, jednoho z klíčových jazykových modelů OpenAI, nahradí Sutskevara jako hlavního vědce.

Navzdory zániku týmu Superalignment se OpenAI nadále zaměřuje na bezpečnost AI. V říjnu společnost spustila nový tým zaměřený na „připravenost“, jehož úkolem je předcházet potenciálním katastrofickým rizikům spojeným s AI, včetně kybernetických hrozeb a chemických, jaderných a biologických rizik.

Zdroj: Engadget.com (odkaz)