Foto: Freepik
Studentům chybí odvolání – i když jsou nevinní
Vzdělávací instituce se potýkají s tím, jak AI integrovat do výuky a zároveň zajistit, aby nebyla zneužívána. Detekční nástroje, jako je Turnitin, se staly hlavní zbraní proti podvádění, ale často cílí špatně. Příkladem je příběh devatenáctiletého Alberta, studenta anglické literatury, který byl obviněn z použití AI při psaní eseje. Přestože nepodváděl, jeho univerzita vyhodnotila jeho práci jako podezřelou kvůli použití „typických frází“, které AI často generuje.
Albert nakonec dokázal svou nevinu, ale zážitek ho natolik rozladil, že z univerzity odešel. „Bylo to jako facka mé tvrdé práci,“ popsal situaci. Bohužel není jediný – další studenti uvedli, že byli obviněni z podvádění jen proto, že jejich text měl strukturu nebo stylistické prvky připomínající práci AI.
Nejde jen o školy: AI zasahuje i do profesního života
Podobné příběhy se však neomezují pouze na vzdělávání. AI detektory stále častěji využívají zaměstnavatelé, aby odhalili podvodné chování na pracovišti, a nevyhýbají se ani novinářům, administrativním pracovníkům nebo kreativním profesionálům. Jakmile software označí váš výstup za „podezřelý“, často nemáte možnost odvolání – i když jste nevinní.
Například redaktor jednoho zpravodajského portálu byl obviněn, že část svého článku nechal napsat AI. Přestože šlo o původní text, který vznikl poctivou prací, detektor označil jeho pasáže za generované. Redaktor musel nejen obhajovat svou profesionalitu před vedením, ale také čelit podezření mezi kolegy. „Bylo to frustrující. Nejen, že jsem musel dokazovat svou nevinu, ale také vysvětlovat, jak jsem k textu dospěl. Přitom jsem si celý proces dokumentoval, ale to nikoho nezajímalo,“ popsal svou zkušenost.
Technologie, která rozhoduje o osudech
Nespolehlivost detekčních nástrojů není problémem pouze akademickým či etickým. Výzkumy ukazují, že tyto systémy jsou často předpojaté. Podle studie Stanfordské univerzity například detektory umělé inteligence častěji označují práce od neanglicky mluvících autorů za generované AI. Zaznamenána byla také disproporční zátěž na neurodivergentní osoby nebo ty, kteří používají jednoduchý jazyk.
Ve firemním prostředí jsou důsledky neméně vážné. V dnešní době, kdy pracovní prostředí klade důraz na efektivitu, se zaměstnavatelé stále více spoléhají na AI nástroje k hodnocení výstupů svých zaměstnanců. Podezření z podvádění může vést k pozastavení projektu, ztrátě pověsti nebo dokonce propuštění. A pokud software udělá chybu, bývá velmi těžké ji zpochybnit.
Riziko ztráty důvěry
Současný přístup k detekci AI často vede k podezření a nedůvěře na všech úrovních – mezi studenty a učiteli, zaměstnavateli a zaměstnanci i v profesních vztazích obecně. Místo posílení integrity dochází k tomu, že se lidé bojí být kreativní nebo psát vlastní texty, protože by mohly být chybně označeny jako generované.
Dr. Mike Perkins, výzkumník v oblasti generativní AI, k tomu říká: „Tyto systémy mají zásadní omezení. Často trestají ty, kteří se snaží, a podvodníky nechají projít. Kdokoli, kdo chce podvádět, použije jednoduché techniky, jak detektory obejít. Naopak ti, kteří AI nepoužívají, mohou skončit obvinění a jejich kariéra je ohrožena.“
Jak dál?
V prostředí, kde jsou AI technologie stále dominantnější, je třeba přehodnotit přístup k jejich detekci a používání. Vzdělávací instituce i zaměstnavatelé by měli hledat cestu, jak integrovat AI eticky a spravedlivě, aniž by poškozovali nevinné jednotlivce.
Je důležité, aby organizace nabízely jasné a transparentní procesy pro řešení sporů, které zahrnují lidské posouzení a možnost odvolání. Jinak riskujeme, že se AI stane nástrojem útlaku místo inovace.
Zdroj: TheGuardian.com (odkaz)