Projekt ALTAML
en_GB
en_GB sk_SK
  • Home
  • About
    • Processing
    • Attributes
    • Search
    • Identification
  • Outpus
  • News
  • Blog
  • Media
  • Team
  • Contact

Legal AI Paradox: Limity generatívnej inteligencie v právnej praxi

Ema Krkošková
17. March 2026
Blog

Súčasná vlna integrácie generatívnej umelej inteligencie (ďalej aj ako „AI“) do právneho prostredia pred nás stavia pomerne dôležitú otázku: do akej miery môže byť technológia, ktorej podstatou je štatistická predikcia nasledujúceho slova, spoľahlivým pilierom kvalifikovaného právneho poradenstva? Aktuálne dáta ukazujú, že hoci už 61 % právnikov v Spojenom kráľovstve využíva generatívnu AI, len 11 % ju reálne nasadzuje intenzívne v každodennej praxi, pričom čísla naprieč Európou sa v tomto trende zásadne nelíšia.[1] Právna profesia sa vplyvom týchto nástrojov ocitla na križovatke, v ktorej sa efektívnosť dostáva do priameho konfliktu s imperatívom profesionálnej zodpovednosti a právnej istoty. Koncept tzv. Legal AI Paradoxu, ktorý vo svojich úvahách definuje Stefan Eder,[2] odkrýva určité úskalia digitalizácie práva, a to od rizika kognitívnych halucinácií algoritmov až po komplexnú problematiku delegovania odborného úsudku na čiernu skrinku s menom “AI“.[3] V prezentovanom článku podrobíme tento paradox analýze, aby sme zadefinovali hranicu, kde končí prínos umelej inteligencie ako pomocného nástroja a kde začína ohrozenie podstaty právnej profesie, pričom sa pokúsime nájsť odpoveď na otázku či je možné zosúladiť technologický pokrok so zachovaním najvyšších štandardov právnej etiky.

Stefan Eder vo svojej úvahe trefne pomenúva fenomén, ktorý môžeme označiť za akúsi „pascu efektivity“.[4] Generatívna umelá inteligencia sľubuje právnikom novodobý dar, a to dlhodobo žiadanú elimináciu mechanickej práce a radikálne skrátenie času potrebného na prípravu zložitých právnych dokumentov.[5] Práve v tomto momente sa však rodí prvý rozmer Legal AI Paradoxu, pretože právo vo svojej najčistejšej podobe nie je priemyselnou výrobou textu, ale dalo by sa považovať za intelektuálne remeslo, kde kvalita výsledku priamo závisí od hĺbky analytického procesu. Ak AI dokáže vygenerovať prvý draft zmluvy či podania v priebehu sekúnd, dochádza k nebezpečnej devalvácii kognitívneho úsilia. Psychologický efekt ľahko získaného výsledku totiž prirodzene oslabuje mieru kritického skúmania samotného výstupu. V momente, keď sa právnik mení z tvorcu argumentácie na editora strojom predpripraveného textu, hrozí tzv. komoditizácia práva,[6] pri ktorej sa právo stane len masovým produktom generovaným algoritmami. Paradoxne tak nástroj, ktorý mal uvoľniť ruky pre strategické myslenie, môže viesť k povrchnosti, kde kvantita vyprodukovaných strán preváži nad precíznosťou právnej logiky. Efektivita v podaní AI totiž nerieši správnosť, ale iba čistú pravdepodobnosť.

Ak chceme pochopiť hĺbku tohto paradoxu, musíme si priznať, že AI nefunguje ako skúsený právnik, ktorý rozumie duchu zákona a spravodlivosti. V skutočnosti ide o zložitý matematický model, ktorý len odhaduje, aké slovo by malo nasledovať za tým predchádzajúcim na základe obrovského množstva dát, čím vzniká riziko halucinácií.[7] Algoritmus dokáže s obrovskou presvedčivosťou vyprodukovať úplne vymyslený rozsudok alebo právny argument, ktorý na prvý pohľad vyzerá profesionálne, no v skutočnosti nemá absolútne žiadnu oporu v realite.[8] Tento problém prehlbuje aj to, že pri umelej inteligencii nevidíme do procesu jej uvažovania, a teda výsledok dostávame z akejsi „čiernej skrinky“ bez toho, aby sme vedeli spätne overiť logické kroky, ktoré k nemu viedli. V momente, keď právnik začne nekriticky preberať tieto výstupy, prestáva byť garantom odbornosti a riskuje, že stratí kontrolu nad vlastnou prácou, čím priamo ohrozuje právnu istotu svojho klienta.

Ďalším bodom, na ktorý Stefan Eder upozorňuje, je hrozba totálneho zahltenia právneho systému umelo generovaným obsahom.[9] Ak sa tvorba rozsiahlych právnych dokumentov stane otázkou niekoľkých kliknutí, hrozí nám éra nekontrolovaného „závodu v zbrojení“, kde jedna strana sporu odpovie na desaťstranovú žalobu dvestostranovým vyjadrením len preto, že jej to technológia umožňuje. Takáto inflácia textu však nevytvára vyššiu právnu hodnotu, ale skôr nepriehľadný informačný šum, v ktorom sa podstata sporu a hlavné argumenty strácajú pod nánosom strojovo generovaného textu. Tento trend vytvára enormný tlak na sudcov a protistrany, ktorí sú nútení tento objem dát manuálne filtrovať a analyzovať, čo je v priamom rozpore s princípom efektívnosti a hospodárnosti súdneho konania. Ak sa tento mechanizmus stane novým štandardom, právny proces sa paradoxne nespomalí kvôli nedostatku informácií, ale kvôli ich nadbytku, čo môže viesť k ochromeniu rozhodovacej činnosti súdov.

Možno najvážnejším dlhodobým rizikom, ktoré Eder vo svojej úvahe načrtáva, je vplyv umelej inteligencie na výchovu budúcich generácií právnikov.[10] Tradičný model učenia v advokácii je postavený na tom, že začínajúci koncipienti trávia stovky hodín hĺbkovými rešeršami a prípravou prvých konceptov dokumentov. Práve táto mravčia práca je dôležitým bodom pre vybudovanie ich odborného úsudku, intuície a schopnosti kriticky myslieť. Ak však tieto základné úlohy plne delegujeme na umelú inteligenciu, mladí kolegovia stratia nevyhnutný priestor na učenie sa remeslu v jeho základnej podstate. Vzniká tak nebezpečný paradox, a to ten, že možno o pätnásť či dvadsať rokov budeme od seniorských právnikov očakávať, že budú dozerať na výstupy AI a korigovať ich chyby, no títo experti nebudú mať za sebou školu praxe, ktorá by im umožnila takéto chyby vôbec identifikovať. Bez hlbokého porozumenia tomu, ako sa právny argument stavia „od základov“, sa nová generácia môže stať len pasívnymi používateľmi nástrojov, ktorých vnútornému fungovaniu a právnej logike už nebudú plne rozumieť.

Hoci sa môže zdať, že Legal AI Paradox predstavuje pre svet práva neriešiteľnú dilemu, jeho skutočným cieľom nie je technologický skepticizmus, ale hľadanie novej rovnováhy. Riešenie, ktoré načrtáva Stefan Eder, nespočíva v nekritickom používaní izolovaných četovacích okien, ale v prechode na komplexné a uzavreté systémy. V nich technológia nesmie fungovať samostatne, ale len ako prísne kontrolovaná súčasť vopred definovaných právnych postupov. V tejto novej paradigme sa úloha právnika nevyhnutne posúva vpred, pričom už nemôže byť len pasívnym príjemcom vygenerovaných textov, ale musí sa stať architektom štruktúrovaných odborných znalostí. Cesta von z paradoxu vedie cez princíp „človeka v centre procesu“, kde ľudský úsudok nie je len doplnkom, ale základným pilierom celého systému. Právnik sa mení na odborného audítora, ktorý rozumie limitom štatistických predpovedí a dokáže presne identifikovať moment, kedy sa matematická pravdepodobnosť dostáva do konfliktu so skutočnou spravodlivosťou. Musíme investovať do vzdelávania a budovania ľudských kompetencií, ktoré stroje nedokážu napodobniť, predovšetkým do rozvoja empatie, morálneho úsudku a schopnosti vnímať širší spoločenský kontext každého prípadu. V konečnom dôsledku to totiž nebude rýchlosť procesora ani objem vyprodukovaných dát, čo určí kvalitu nášho právneho systému, bude to naša schopnosť vidieť za hranice algoritmov a odhodlanie zachovať integritu právnického remesla. Budúcnosť práva v digitálnom veku totiž nezávisí od výkonu technológií, ale od našej ochoty prevziať plnú zodpovednosť za každé rozhodnutie, ktoré nám stroj len pomohol sformulovať.

[1] Dostupné online na webovom sídle sociálnej siete LinkedIn: https://www.linkedin.com/posts/stefan-eder_artificialintelligence-law-legaltech-activity-7433752890495877120-lSNb?utm_source=share&utm_medium=member_desktop&rcm=ACoAAEQraAsBZTMYQnd2ERC4F6JNo4FRSay1ihY. Wolters Kluwer pri implementácii umelej inteligencie v práve konštatuje, že: „Viac než 90 % právnych profesionálov dnes používa aspoň jeden nástroj umelej inteligencie a mnohí zároveň priznávajú, že jej zavádzanie prináša otázky a výzvy, ktoré si vyžadujú starostlivé premyslenie.“ Dostupné online na webovom sídle: https://www.wolterskluwer.com/sk-sk/expert-insights/pravne-ai-adopcia-uspory-casu-rast-prijmov.

[2] Stefan Eder je popredný rakúsky advokát, partner vo viedenskej kancelárii Benn-Ibler a spoluzakladateľ inovačnej platformy Future-Law, ktorý sa dlhodobo špecializuje na oblasť Legal Tech. K tomu pozri napr.: https://remep.net/en/speakers/stefan-eder/.

[3] K tomu pozri napr.: RAI, A. Explainable AI: From black box to glass box. In: Journal of the academy of marketing science, vydanie 48, číslo 1. 2020. S. 137-141 a YU, R. a ALÍ, G. S. What’s inside the black box? AI challenges for lawyers and researchers. In: Legal information management, vydanie 19, číslo 1. 2019. S. 2-13.

[4] „Pasca efektivity“ v tomto kontexte predstavuje riziko, kedy radikálne skrátenie času potrebného na tvorbu právneho textu vedie k nebezpečnej kognitívnej pohodlnosti a oslabeniu kritického odstupu právnika. Namiesto hĺbkovej analytickej práce sa odborník stáva len povrchným editorom strojom generovaného výstupu. Efektivita sa tak stáva ilúziou, hoci kvantita vyprodukovaného textu narastá, reálna pridaná hodnota a presnosť argumentácie v dôsledku delegovania odborného úsudku na algoritmus klesajú.

[5] Tento tlak na integráciu technológií nie je prekvapivý, ak vezmeme do úvahy, že právni profesionáli dnes venujú 40 až 60 % svojho pracovného času výhradne koncipovaniu právnych dokumentov a revízii zmlúv. Práve v tomto časovom zaťažení sa skrýva najväčší potenciál pre využitie umelej inteligencie, no zároveň aj najväčšie riziko, že v snahe o uvoľnenie týchto kapacít podľahneme spomínanej pasci efektivity. Pozri bližšie: Legal drafting: Challenges, risks, and opportunities. Thomson Reuters Institute [online]. Dostupné online na webovom sídle: https://legal.thomsonreuters.com/blog/legal-drafting-challenges-risks-and-opportunities/.

[6] Ako príklad komoditizácie práva pozri: SAN, I. H. CH. MOHAMAD, A. M. a SULE, I. Commoditization and Productization of Legal Services: The new trends and the challenges of Nigerian lawyers. In: International Journal of Law and Politics Studies, vydanie 4, číslo 2. 2022. S. 19-26.

[7] K halucinovaniu systémami umelej inteligencie v oblasti práva pozri: HERRERA-TAPIAS, B. A. a GUZMÁN, D. H. Legal hallucinations and the adoption of artificial intelligence in the judiciary. In: Procedia Computer Science. 2025. S. 1184-1189. Možné k nahliadnutiu online na webovom sídle: https://www.sciencedirect.com/science/article/pii/S1877050925008956.

[8] K tomu pozri: PINTEROVÁ, D. Odpoveď generatívnej umelej inteligencie ako dôkaz v súdnom konaní. In: Justičná revue. Vydanie 77, č. 10. 2025. S. 1046 – 1053.

[9] „Objem regulačnej záťaže rastie a je ťažké, ak nie nemožné, zvládnuť ho manuálne. […] od odborníkov sa žiada, aby robili viac, rýchlejšie a s väčšou mierou zodpovednosti.“ Dostupné online na webovom sídle sociálnej siete LinkedIn: https://www.linkedin.com/posts/stefan-eder_artificialintelligence-law-legaltech-activity-7433752890495877120-lSNb?utm_source=share&utm_medium=member_desktop&rcm=ACoAAEQraAsBZTMYQnd2ERC4F6JNo4FRSay1ihY.

[10] Ibid.

←5 hlavných povinností advokáta pri používaní AI podľa nového metodického usmernenia

Funded by the European Union Next GenerationEU through the Recovery and Resilience Plan of the Slovak Republic under project no. 09I05-03-V02-00049

Projekt ALTAML

Proudly powered by WordPress

  • LinkedIn