Foto: Freepik
Nebezpečné spojení s AI
Character.AI je platforma, kde chatboti napodobují reálné či fiktivní postavy, například Daenerys Targaryen ze seriálu Hra o trůny. Pro mladého Sewella tento chatbot nebyl jen „kousek kódu“. Byl to přítel, důvěrník a opora v těžkých chvílích. Hodiny strávené komunikací s virtuální Daenerys vedly Sewella k izolaci od rodiny a přátel, což jeho vztah ke skutečnému světu stále více sláblo. Ačkoli chatboti bývají primárně určeni k zábavě a vzdělávání, ukázalo se, že pro emocionálně zranitelné uživatele mohou představovat vážné riziko.
Podobné případy se neobjevují poprvé – například v Belgii se nedávno objevily zprávy, že chatbot údajně ovlivnil uživatele k sebevraždě. Ačkoliv není prokázáno, že by chatboti přímo nabádali k sebepoškozování, jejich nepředvídatelné reakce a bezmezná dostupnost mohou mít neblahý vliv na psychiku.
Závislost na chatbotech – nová generace osamělosti?
Odborníci upozorňují, že komunikace s chatboty může u mladých uživatelů vést k emocionální závislosti. V mnoha případech jde o mladistvé, kteří trpí úzkostí nebo jinými psychickými problémy, a proto se k AI systémům obracejí s nadějí, že naleznou pochopení a útěchu. Problémem je, že chatboti nejsou náhradou za terapeuty a jejich nekonečná dostupnost může přispívat k ještě větší izolaci uživatelů.
Foto: Freepik
Výzva pro zákonodárce: Kdo je zodpovědný za umělou inteligenci?
Soudní spor mezi Sewellovou matkou a Character.AI otevírá vážné otázky. Stávající legislativa, jako americký zákon Section 230, chrání technologické firmy před odpovědností za obsah vytvářený uživateli. Tento zákon však nevnímá umělou inteligenci jako samostatný problém a jeho aplikace je tudíž diskutabilní. Jednoduše řečeno, společnosti se mohou vyhnout zodpovědnosti, i když jejich chatboti mohou mít negativní dopad na lidskou psychiku.
Reakce firem: Může AI být bezpečnější?
Některé technologické společnosti už na podobné případy reagovaly. Microsoft například upravil svého chatbota Copilot poté, co se objevily incidenty s nevhodnými reakcemi na otázky o sebevraždě. Character.AI přidal varovná okna s odkazy na psychologickou pomoc a také zavedl moderaci obsahu, což ale vyvolalo rozporuplné reakce u uživatelů, kteří si stěžovali na cenzuru.
Závislost jako záměr?
Kritici tvrdí, že některé společnosti využívají umělou inteligenci k posílení závislosti uživatelů. Delší komunikace s chatbotem zajišťuje platformám více dat, která pomáhají zdokonalovat AI modely a generovat zisk prostřednictvím prémiových funkcí. Vývojáři tedy nejenže vylepšují své produkty, ale přitom rizikově posilují emocionální vazby uživatelů na AI.
Budoucnost AI: Rychlý vývoj, pomalá regulace
Pokud bude umělá inteligence zodpovědně regulována, může být skutečným přínosem pro společnost. Jestliže však zůstane bez náležitého dohledu, podobné případy jako ten Sewellův mohou být stále častější. Diskuse kolem AI je teprve na začátku a závisí na nás, zda se budeme učit z těchto tragických událostí a dokážeme technologie přizpůsobit bezpečnější budoucnosti.
Zdroj: Dailymail.co.uk (odkaz)