Foto: Freepik
Skupina výzkumníků nedávno představila jeden z prvních generativních umělých červů, kteří dokážou proniknout z jednoho systému do druhého. Tito červi mohou potenciálně krást data nebo nasazovat škodlivý software. Tento výzkum, který představuje rizika spojená s propojenými autonomními ekosystémy umělé inteligence, byl proveden týmem výzkumníků z Cornell Tech.
Výzkumníci, v čele s Benem Nassim, Stavem Cohenem a Ronem Bittonem, vytvořili červa nazvaného Morris II, který je odkazem na původního červa Morris, který způsobil chaos na internetu v roce 1988. Výzkum byl zveřejněn ve vědeckém časopise a na webové stránce WIRED.
Červ Morris II byl vytvořen s využitím tzv. „adversarial self-replicating prompt“, který dokáže aktivovat generativní umělou inteligenci k vytvoření dalších instrukcí ve svých odpovědích. V praxi to znamená, že systém AI je schopen produkovat soubor dalších pokynů v reakci na určitý vstup.
V rámci experimentu výzkumníci ukázali, jak červ může napadnout generativní AI e-mailového asistenta a krást data z e-mailů nebo odesílat spamové zprávy. Tento červ dokázal obejít některá bezpečnostní opatření v systémech ChatGPT a Gemini.
I když zatím nebyly generativní umělé červy spatřeny ve volné přírodě, tento výzkum upozorňuje na rizika spojená s rozvojem autonomních systémů umělé inteligence. Bezpečnostní experti varují, že tyto červy mohou představovat závažné bezpečnostní hrozby, zejména pokud jsou umělé inteligentní aplikace oprávněny jednat na základě určitých podmínek.
I přes tyto rizika výzkumníci zdůrazňují, že existují způsoby, jak se bránit proti potenciálním červům. Je důležité, aby tvůrci generativních umělých inteligencí byli obezřetní a zaměřili se na bezpečnostní opatření při návrhu svých systémů. Tento výzkum je důležitým krokem k lepšímu porozumění rizikům spojeným s rozvojem umělé inteligence a k nalezení efektivních způsobů, jak se jim bránit.
Zdroj: ArsTechnica.com (odkaz)