Foto: Freepik

Soudní spory a umělá inteligence: Případ Ransona

V soudním procesu, který se týkal nemovitosti na Bahamách v hodnotě 485 000 dolarů, měl expert Charles Ranson za úkol odhadnout, jaké škody utrpěl dědic po zpožděném prodeji nemovitosti. Dědic, syn zesnulého majitele, obvinil svou tetu, že si nemovitost nechávala pro osobní užívání a odkládala její prodej, čímž údajně porušila své povinnosti jako správkyně svěřeneckého fondu.

Pro posouzení škod se Ranson rozhodl využít Copilot, chatbot vyvinutý společností Microsoft. Tento krok však způsobil mnoho problémů, které soudce Jonathan Schopf následně označil za neetické a nezodpovědné. Podle Schopfa Ranson neměl potřebné odborné znalosti v oblasti realit, což jej vedlo k tomu, aby se spoléhal na AI pro výpočet škod – krok, který soudce označil za „čistě spekulativní“.

Problémy s použitím Copilotu

Jedním z hlavních problémů bylo, že Ranson nemohl před soudem uvést, jaké konkrétní dotazy Copilotovi zadával, ani odkud chatbot získal své údaje. Kromě toho Ranson sám přiznal, že neví, jak přesně Copilot funguje a jak generuje výsledky. Tento nedostatek transparentnosti a odborných znalostí vedl soudce Schopfa k závěru, že Ransonovo svědectví je zcela nedůvěryhodné.

Při pokusu o ověření Copilotových výstupů se soudní tým setkal s dalším problémem – každý pokus o výpočet stejné otázky přinesl mírně odlišný výsledek. Soudce Schopf ve svém rozsudku zdůraznil, že to „zpochybňuje spolehlivost a přesnost Copilotu při generování důkazů pro soudní řízení.“

Umělá inteligence a právní svět: Potenciál a rizika

Případ Ransona a jeho použití Copilotu poukazuje na širší otázku – jaké místo má umělá inteligence v právním světě? Soudce Schopf ve svém rozsudku varoval, že umělá inteligence, jako je Copilot, může představovat riziko pro právní procesy, pokud se nebude používat zodpovědně. Zdůraznil, že by mělo být povinné, aby se před soudem zveřejnilo, pokud odborník používá AI k získávání důkazů.

AI vs. soud
AI vs. soud

Foto: Freepik

V současnosti neexistuje jasné pravidlo, které by určovalo, kdy lze AI generované důkazy přijmout. Avšak soudce Schopf naznačil, že v budoucnosti by měly být zavedeny přísnější regulace, aby se předešlo zneužití AI technologií, které mohou zkreslit soudní proces.

Etické otázky a budoucí vývoj

Zatímco AI má potenciál zlepšit efektivitu a přesnost v mnoha oblastech, tento případ nám připomíná, že technologie nejsou bezchybné. AI systémy jako Copilot mohou generovat nejednoznačné nebo nepřesné výsledky, zejména v kontextech, kde je potřeba odborné znalosti a precizní analýza. Je proto klíčové, aby AI byla používána pouze jako podpůrný nástroj, a nikoliv jako náhrada za lidský úsudek a odbornou analýzu.

Soudní svět se bude muset přizpůsobit tomuto novému vývoji, ale nesmí přitom ztrácet na mysli zásady spravedlnosti a transparentnosti. Odborníci by měli být povinni poskytovat jasné informace o tom, jak AI nástroje používají, a soudní systém bude muset najít rovnováhu mezi inovacemi a tradičními metodami právní analýzy.

Závěr: Budoucnost AI v právu

Případ Charlese Ransona ukazuje, že spoléhat se na AI při soudních řízeních bez dostatečných odborných znalostí může vést k vážným problémům. Ačkoli AI nabízí mnoho výhod, je třeba s ní nakládat obezřetně, zejména pokud jde o generování důkazů, které mohou ovlivnit životy lidí.

Do budoucna bude nezbytné vytvořit jasná pravidla pro používání AI v právním světě. Současné technologie nejsou dokonalé a mohou přinést více škody než užitku, pokud nebudou správně řízeny. Důvěra ve spravedlnost soudního systému musí být nadřazena jakýmkoli technologickým inovacím.

Tento případ je varováním pro všechny, kteří se domnívají, že umělá inteligence je všemocná a neomylná. Ve skutečnosti AI může selhat stejně jako člověk – a je na nás, abychom ji využívali s rozvahou a odpovědností.

Zdroj: ArsTechnica.com (odkaz)