
Wchodzimy w erę, w której o wyroku sądu czy treści pozwu może zdecydować statystyczny algorytm, a nie ludzkie sumienie. Choć sztuczna inteligencja obiecuje prawnikom wybawienie od żmudnej biurokracji, w rzeczywistości zastawia na nich pułapkę — niepostrzeżenie zamienia głęboką analizę sensu przepisów na bezkrytyczne ufanie matematycznemu prawdopodobieństwu.
- Teza. Ekspansja AI w sądownictwie faworyzuje mechaniczne „czytanie przepisów” kosztem rozumienia ich celu, co prowadzi do zaniku prawniczego myślenia.
- Dowód. Programy, których działania nie rozumiemy, narzucają nam matematyczne rozwiązania, a prawnicy – chcąc ułatwić sobie pracę – przestają je sprawdzać.
- Efekt. Bez bezpiecznych, sprawdzonych narzędzi i kontroli ryzykujemy powstanie cyfrowej wyroczni, której błędnych wyroków nie będzie jak podważyć.
Sztuczna inteligencja zmienia nasze prawo. Spis treści
Dlaczego to tak ważne? Problem polega na tym, że prawo nie jest prostym matematycznym równaniem. Prawnik, analizując przepis, szuka odpowiedzi na pytanie: „po co to prawo powstało i jaki cel chciało osiągnąć?”. Sztuczna inteligencja tego nie potrafi. Ona jedynie przewiduje, jakie słowo powinno wystąpić po poprzednim na podstawie tysięcy przeczytanych wcześniej tekstów.
Ta ontologiczna (odnosząca się do istoty bytu) różnica sprawia, że każda próba delegowania interpretacji na maszynę jest de facto rezygnacją z poszukiwania sensu normy na rzecz akceptacji najbardziej prawdopodobnej wersji tekstu. Takie działanie podważa istotę wymiaru sprawiedliwości jako procesu decyzyjnego. Sytuację komplikuje globalny trend cyfryzacji państwa, gdzie technologia staje się narzędziem zarządzania masowymi zbiorami danych.
O skali zagrożeń dyskutują na łamach Biznes Enter eksperci reprezentujący różne perspektywy: prof. Tomasz Widłak oraz mgr Katarzyna Irytowska z Uniwersytetu Gdańskiego oraz prof. Kamil Mamak z Uniwersytetu Jagiellońskiego. Analizują oni dla nas teoretyczne fundamenty wykładni i odpowiedzialności za błąd w prawie.
Dlaczego o tym w ogóle mówimy? Ponieważ granica między usprawnieniem pracy a zastąpieniem sędziowskiego sumienia algorytmem staje się w 2026 r. główną linią frontu w walce o suwerenność prawa. To ważne także z perspektywy prawa gospodarczego.
AI i statystyka zamiast sprawiedliwości
Głównym problemem w używaniu sztucznej inteligencji przez prawników jest różnica między rozumowaniem a obliczaniem. Prawdziwy prawnik patrzy na system prawny jako na całość i stara się uniknąć sprzeczności. Sztuczna inteligencja jedynie łączy wyrazy w najbardziej prawdopodobny sposób. Nie rozumie ona, że dany przepis ma chronić konkretne wartości, takie jak wolność czy własność – dla niej to tylko dane statystyczne.
Jeśli prawnik zacznie polegać na maszynie, jednocześnie przestanie szukać sensu w prawie i zacznie jedynie „czytać przepisy”. Dr hab. Tomasz Widłak ostrzega, że grozi to sytuacją, w której maszyna stanie się wyrocznią, a nikt nie będzie w stanie wyjaśnić, dlaczego wydała taki, a nie inny werdykt. Prawo przestanie być sztuką szukania słusznych rozwiązań, a stanie się martwym mechanizmem.
Współczesna praktyka pokazuje, że AI zachęca do chodzenia na skróty. Dr hab. Kamil Mamak zauważa, że choć oficjalne zasady orzekania w sądach jeszcze się nie zmieniły, to w codziennej pracy coraz częściej liczy się szybkość, a nie głębia analizy. Bez zachowania czujności możemy obudzić się w rzeczywistości, w której prawo całkowicie skostnieje, bo maszyna będzie jedynie powielać wzorce z przeszłości, nie potrafiąc zareagować na nowe problemy społeczne.
Sędzia pod nadzorem algorytmu
To, co u nas jest debatą o etyce, w Chinach stało się narzędziem twardej kontroli. Jak przedstawiają eksperci OSW w materiale „Chińskie smart państwo i AI zamiast sędziów?”, w tamtejszych „Smart sądach” algorytm nie tylko pomaga sędziemu, ale go pilnuje. Program analizuje sprawę, sugeruje wysokość wyroku i sam pisze uzasadnienie. Sędzia, który chciałby orzec inaczej, musi się gęsto tłumaczyć przed przełożonymi. W praktyce oznacza to, że sędziowie boją się sprzeciwiać maszynie.
System ten tworzy cyfrową klatkę. Algorytmy budowane przez wielkie firmy współpracujące z rządem dbają o to, by wyroki były zawsze po myśli władzy. Paulina Uznańska z Ośrodka Studiów Wschodnich opisuje to jako przejście od pilnowania sędziego przez innego sędziego do pilnowania sędziego przez nieomylny (według władzy) algorytm. To domyka system kontroli i zabija resztki sędziowskiej niezależności.
Chiński przykład to memento dla całego świata. Pokazuje on, że technologia, która ma rzekomo usprawniać pracę i skracać kolejki w sądach, może bardzo łatwo stać się narzędziem do łamania kręgosłupów moralnych. Zamiast sprawiedliwości otrzymujemy standaryzację wyroków pod dyktando polityczne. Dlatego musimy pilnować, by polskie i europejskie sądy nie poszły tą samą drogą pod płaszczykiem nowoczesności.
Pozorna demokratyzacja prawa dzięki AI
Narzędzia typu ChatGPT są postrzegane jako szansa na tanie doradztwo dla każdego, co określa się mianem demokratyzacji dostępu do prawa. Dla przeciętnego obywatela to rewolucja w komforcie: algorytm jest dostępny 24 godziny na dobę, nie ocenia i potrafi w kilka sekund przełożyć zawiły żargon urzędowy na zrozumiały język. Pozwala to wielu osobom zrozumieć treść otrzymanej umowy czy pisma procesowego bez konieczności natychmiastowego opłacania kosztownej wizyty w kancelarii, co w sytuacjach mniejszej wagi bywa wystarczającym wsparciem.
Z korzyści AI czerpie również samo środowisko prawnicze, traktując algorytmy jako wysokiej klasy asystentów do zadań powtarzalnych. Jak wskazuje prof. Tomasz Widłak, zdolności statystyczne maszyn mogą drastycznie przyspieszyć żmudną analizę tysięcy orzeczeń i szukanie spójności w rozproszonych przepisach. Dzięki temu prawnicy zyskują czas na kreatywne budowanie strategii procesowej, zamiast tracić go na ręczne przeszukiwanie baz danych. Inteligentne systemy stają się więc narzędziem podnoszącym efektywność pracy, o ile służą do wspierania, a nie zastępowania profesjonalnej intuicji.
Mimo tych oczywistych zalet rewolucja ta niesie ryzyko rozprzestrzeniania interpretacji jedynie „prawdopodobnych”, a nie prawdziwych. Mgr Katarzyna Irytowska zauważa, że forma wypowiedzi AI – pewna i fachowa – może uśpić czujność użytkownika i narazić go na poważne błędy. Ostatecznie demokratyzacja prawa jest wartościowa tylko wtedy, gdy technologia służy jako drogowskaz prowadzący do fachowca, a nie jako ostateczna wyrocznia, za której błędy nikt nie chce wziąć odpowiedzialności.
Pułapka darmowych porad
Wiele osób wierzy, że LLM-y to szansa na tanie porady prawne dla każdego. To jednak niebezpieczne złudzenie. Chatboty, w przeciwieństwie do zwykłych wyszukiwarek, podają odpowiedzi w sposób niezwykle pewny siebie i dopasowany do naszego problemu. Sprawia to, że użytkownik ufa maszynie znacznie bardziej, niż powinien, nie zdając sobie sprawy, że algorytm może po prostu zmyślać fakty.
Sztuczna inteligencja ma skłonność do tzw. halucynacji – potrafi wymyślić przepisy, które nie istnieją, lub powołać się na wyroki sądów, które nigdy nie zapadły. Mgr Katarzyna Irytowska przypomina, że dla osoby bez wykształcenia prawniczego te błędy są nie do wykrycia. Profesjonalna pomoc prawna, podobnie jak medyczna, polega na szacowaniu ryzyka i braniu za to odpowiedzialności. Maszyna tego nie robi.
Prof. Tomasz Widłak porównuje korzystanie z porad AI do leczenia się na własną rękę bez lekarza. W obu przypadkach robisz to na własne ryzyko. Granica między ogólną informacją a konkretną poradą zaciera się. Taki stan rzeczy może prowadzić do tragedii – ludzie mogą podejmować radykalne decyzje życiowe lub finansowe oparte na kompletnie fałszywych przesłankach wygenerowanych przez algorytm.
Kto zapłaci za błędy maszyny
W teorii prawa sprawa jest jasna: algorytm to tylko narzędzie. Jeśli maszyna się pomyli i poda ci fałszywą informację, za skutki odpowiesz ty. Adwokat czy radca prawny mają ubezpieczenie i odpowiadają przed sądem dyscyplinarnym za swoje błędy. Twórcy sztucznej inteligencji w swoich regulaminach wyraźnie zaznaczają, że nie biorą odpowiedzialności za to, co wygeneruje ich program.
Błąd sztucznej inteligencji to błąd informacji, a nie błąd prawny. Jak podkreśla mgr Katarzyna Irytowska, odpowiedzialność zawsze spoczywa na osobie, która z danej informacji skorzystała. Nie ma tu mowy o odszkodowaniu od firmy technologicznej. Podobnego zdania jest prof. Kamil Mamak: użytkownik musi być świadomy, że eksperymenty z algorytmami przeprowadza na własnym portfelu i własnej przyszłości.
Ratunkiem mogą być specjalne, certyfikowane narzędzia tworzone przez państwo, takie jak polski projekt PLLuM. Wtedy to urzędy mogłyby brać odpowiedzialność za działanie takich systemów. Zanim to jednak nastąpi, prof. Widłak radzi zachować „praktyczną mądrość”. Aby bezpiecznie używać AI, trzeba mieć większą wiedzę niż sama maszyna, by w porę zauważyć, kiedy zaczyna ona fabrykować rzeczywistość.
Ignacy Zieliński, dziennikarz Biznes Enter
Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.
Zdjęcie główne: Grafika: Sandra Zięba