Egy amerikai szövetségi bíró is pórul járt a mesterséges intelligencia miatt.


Manapság egyre gyakoribb, hogy az ügyvédek időnként lebuknak a ChatGPT használata miatt, ami komoly kérdéseket vet fel az igazságszolgáltatás iránti bizalommal kapcsolatban. Különösen aggasztó, amikor a bírósági ítéletekben MI által generált, félrevezető információk bukkannak fel, hiszen ez nemcsak a jogi eljárásokat, hanem a társadalom jogrendbe vetett hitét is alááshatja.

Egy Mississippi állambeli szövetségi bíró, Henry Wingate, a múlt hónapban olyan ítéletet hozott, amely nem csupán ténybeli hibákkal volt terhelt, hanem úgy tűnik, mesterséges intelligencia által generált, valóságtól elrugaszkodott elemeket is tartalmazott. A bírósági dokumentumban olyan felperesek szerepeltek, akik valójában nem léteznek, a törvények citálása pedig helytelenül történt, emellett olyan ügyekre is hivatkozott, amelyek valójában sohasem zajlottak le. A Mississippi Today értesülései szerint Wingate bíró egy ideiglenes távoltartási végzés keretében sikerült mindezeket összegyűjtenie, ezzel új fejezetet nyitva a ChatGPT és hasonló mesterséges intelligencia eszközök által felfedett hibák történetében.

Már évekkel ezelőtt is volt rá példa, hogy az egyik New York-i bíróságon a felperest képviselő ügyvédek komoly büntetést kaptak, amiért hamis idézetekkel és belső hivatkozásokkal megtámogatott, a valóságban nem létező bírósági határozatokra hivatkoztak a beadványukban. A hasonló esetek azóta szinte rendszeressé váltak, és időközben kiderült, hogy a bíróságok a mesterséges intelligencia másféle bevonására sem vevők, mondjuk akkor, ha valaki hivatkozási alapként próbálja eladni az MI-chatbotok által összeállított statisztikákat.

Ebben már egyáltalán nincs semmi vicces.

Kalifornia állam idén tavasszal komoly botrány középpontjába került, amikor kiderült, hogy az ügyvédi szakvizsgához szükséges feladatok egyes részeit nem jogászok készítették, hanem generatív algoritmusok segítségével hozták létre. Ez a megoldás már önmagában is vitákat generált, de mostani események fényében ez csupán a jéghegy csúcsa. A helyzet komolyságát tovább fokozza, hogy egy kinevezett kerületi bírót vádolnak azzal, hogy a mesterséges intelligencia alkalmazásával kapcsolatos etikai normákat megsértette. Érdemes megjegyezni, hogy a bírók korábban már többször is szankcionálták azokat az ügyvédeket, akik nem megfelelően használták a mesterséges intelligenciát, így a mostani eset újabb súlyos kérdéseket vet fel az igazságszolgáltatásban alkalmazott technológiák etikus használatáról.

A lap jelentéséből világosan kiderül, hogy Wingate bíró az ügyvédek pontosítási kérelmei alapján is hibás dokumentumokat terjesztett elő, amit az állami főügyész hivatalának egyik tisztviselője példátlannak tartott. Bár a bíró nem osztotta meg, hogy használta-e a mesterséges intelligenciát a munkája során, a körülmények egyértelműen utalnak arra, hogy valami nem stimmel. A helyzet különös pikantériája, hogy magyarázatot csupán egy fellebbviteli bíróság kérhet tőle: míg a bíró bármikor megkérdőjelezheti az ügyvédek munkáját az MI alkalmazásával kapcsolatban, fordított helyzetben az ügyvédeknek nincs hasonló lehetőségük.

Related posts