Dlaczego AI nie zastąpi prawnika?

324

Halucynacje sztucznej inteligencji w sądzie. Dlaczego AI nie zastąpi prawnika?

Dla biznesu obietnica szybkiego, zgrabnie napisanego tekstu prawnego i to w kilka sekund brzmi nadzwyczajnie kusząco. Kto by nie zechciał bowiem natychmiastowego pozwu, błyskawicznej odpowiedzi na wezwanie, przy absolutnym braku kosztów stałej obsługi.

Wielu już próbowało. Niestety, tekst w sporach poddawany jest znacznie innej weryfikacji niż e-mail marketingowy, brief projektowy, czy podsumowanie spotkania, które również mogą przygotować narzędzia generatywnej sztucznej inteligencji. Zarówno sąd, jak i pełnomocnik strony przeciwnej oczekują precyzji, faktów i spójnej argumentacji prawnej. I to właśnie bywa słabą stroną narzędzi generatywnej sztucznej inteligencji.

Pierwszy znany przypadek w Polsce – pozew wygenerowany przez ChatGPT oddalony w całości

Prezes spółki programistycznej wystartował w procedurze wyboru wykonawcy na stworzenie aplikacji mobilnej – dostępnej zarówno w Google Play, jak i w App Store. Jego oferta nie spełniała jednego z warunków formalnych – spółka nie miała bowiem w swoim portfolio ani jednej aplikacji opublikowanej w App Store. To był wymóg wyraźnie postawiony w zapytaniu ofertowym. Oferta została odrzucona. Prezes uznał jednak, że niesłusznie i postanowił dochodzić odszkodowania. Do napisania pozwu oraz kolejnych pism procesowych nie zaangażował jednak prawnika – skorzystał z ChatGPT.

Na pierwszy rzut oka wszystko wyglądało poprawnie. Pozew był logiczny, uporządkowany, napisany językiem, który mógł sprawiać wrażenie profesjonalnego. Problem polegał na tym, że pod tą warstwą stylistyczną kryły się błędy o charakterze fundamentalnym.

Po pierwsze, AI kompletnie pomyliła reżim prawny. Sprawa dotyczyła relacji cywilnoprawnej, tymczasem ChatGPT konsekwentnie przekonywał powoda, że zastosowanie powinna mieć ustawa Prawo zamówień publicznych.

Po drugie, AI cytowała przepisy, które faktycznie istniały, ale… w zmienionej treści. Jak relacjonowała pełnomocnik strony pozwanej r. pr. Joanna Lisiecka, przepisy PZP były w pozwie „delikatnie poprawione” – tak, aby wprost wspierały argumentację powoda. Nie była to więc literówka czy błąd numeracji, lecz modyfikacja sensu normy prawnej.

Po trzecie, ChatGPT utwierdził powoda w błędnym założeniu faktycznym. Narzędzie AI przyjęło, że skoro ktoś programuje w technologii Flutter, to automatycznie posiada kompetencje i doświadczenie w publikowaniu aplikacji w App Store. Tymczasem w postępowaniu ofertowym nie należało oceniać potencjału czy deklaracji, lecz fakty, a tych w postaci realnie opublikowanych aplikacji powód nie miał.

Najbardziej symptomatyczny był jednak sposób podejścia do dowodów. Do pozwu załączono wydruki rozmów z ChatGPT. Powód powoływał się na nie wprost, sugerując, że skoro „sztuczna inteligencja ustaliła” określony stan prawny, to sąd powinien się do niego dostosować. Sąd jednak nie podzielił tego stanowiska.

Sąd Okręgowy we Wrocławiu pod koniec listopada 2025 r. oddalił powództwo w całości. Powód nie spełnił warunków formalnych zapytania ofertowego, bo nie wykazał wymaganego doświadczenia. To samo w sobie zamykało drogę do odszkodowania.

Co jednak należy wyraźnie zaznaczyć – Sąd bardzo jasno odniósł się do roli sztucznej inteligencji w procesie cywilnym. Wskazał, że:

  • treści wygenerowane przez AI nie stanowią dowodu;
  • nie są dokumentem w rozumieniu prawa cywilnego;
  • mogą co najwyżej być elementem argumentacji strony, ale nigdy substytutem dowodów.

Sąd podkreślił, że dokument, zgodnie z art. 77³ Kodeksu cywilnego, jest nośnikiem ludzkiej woli i intelektualnej treści. Tego kryterium treści generowane przez algorytm nie spełniają – są bowiem tylko ocenami, wygenerowanymi przez model językowy. Na rozprawie powód został dodatkowo pouczony, że to na nim ciąży obowiązek wykazania faktów, a wydruki rozmów z ChatemGPT tego obowiązku nie realizują.

To nie nowość. W USA fikcyjne precedensy w pismach procesowych

Rok 2023 przyniósł w amerykańskich sądach dwa głośne przypadki, które dobitnie pokazały, jak łatwo fikcyjne orzecznictwo wygenerowane przez AI może przedostać się do realnych pism procesowych.

W pierwszej sprawie dwaj nowojorscy prawnicy złożyli do sądu federalnego pismo zawierające sześć całkowicie zmyślonych orzeczeń, wygenerowanych przez ChatGPT. Cytaty wyglądały wiarygodnie – miały sygnatury, streszczenia i przypisanych sędziów. Jeden z prawników przyznał, że korzystał z AI do researchu i nie sprawdził istnienia spraw, drugi natomiast podpisał pismo bez weryfikacji. Gdy pełnomocnicy pozwanego wskazali, że takich wyroków nie da się odnaleźć, sąd nałożył na prawników i ich kancelarię karę 5 000 dolarów, podkreślając, że korzystanie z AI nie zwalnia z obowiązku sprawdzenia prawdziwości treści składanych do sądu. Odpowiedzialność, jak zaznaczono, zawsze ponosi człowiek, nie algorytm.

Kilka miesięcy później przed tym samym sądem ujawniono drugi przypadek. Michael Cohen, były prawnik Donalda Trumpa, przyznał, że nieświadomie przekazał swojemu adwokatowi fikcyjne orzeczenia, które sam znalazł w Internecie przy użyciu Google Bard (obecnie znany jako Gemini), traktując to narzędzie jak zwykłą wyszukiwarkę. Fałszywe precedensy trafiły do pisma mającego doprowadzić do przedterminowego zakończenia sądowego nadzoru nad Cohenem. Sąd zauważył, że cytowane wyroki nie istnieją, i zażądał wyjaśnień. Ostatecznie ani Cohen, ani jego pełnomocnik nie zostali ukarani, ale sąd określił całą sytuację jako „embarrassing” – kompromitującą dla profesjonalnego obrotu prawnego.

Jak nasz przeciwnik znalazł przepis o wolności słowa przedsiębiorców

W jednej z prowadzonych przez nas spraw odpowiedź na wezwanie do zaprzestania naruszeń dóbr osobistych zaczynała się znajomo – emocjonalnie, defensywnie i polemicznie. I nagle w połowie pisma nastąpił wyraźny zwrot. Ton stał się chłodny, niemal akademicki, argumenty uporządkowane, Pojawiły się przepisy wraz z konkretnymi artykułami.

Wśród nich „art. 41 ustawy Prawo przedsiębiorców”, wskazany jako podstawa ochrony wolności słowa i opinii przedsiębiorców.

Wystarczyła jednak szybka weryfikacja, by okazało się, że art. 41 ustawy Prawo przedsiębiorców w ogóle nie dotyczy wypowiedzi. Reguluje on kwestie zezwoleń na wykonywanie działalności gospodarczej i nie zawiera ani jednego zdania o wolności słowa. To nie była odważna interpretacja ani kontrowersyjna teza – to był przepis użyty w całkowicie obcym mu kontekście.

I właśnie w tym tkwi problem. Na pierwszy rzut oka wszystko wyglądało profesjonalnie: styl, struktura, pewność siebie argumentów. Dopiero analiza merytoryczna odsłoniła, że mamy do czynienia z konstrukcją, która brzmi poprawnie, ale taka nie jest. Odróżnienie takiej, gładko napisanej, lecz błędnej argumentacji wygenerowanej przez automat od rzetelnej, ludzkiej analizy bywa czasem trudne – zwłaszcza gdy czyta się ją szybko.

Czym są halucynacje AI?

Modele językowe nie rozumieją prawa w sensie, w jakim rozumie je prawnik. Nie interpretują norm, nie ważą argumentów, nie odróżniają tego, co obowiązuje, od tego, co jedynie brzmi przekonująco. Ich działanie polega na czymś znacznie prostszym – na przewidywaniu statystycznie najbardziej prawdopodobnych ciągów słów. Gdy kontekst staje się złożony albo dane okazują się niepełne, model zaczyna „uzupełniać luki”. W efekcie powstają teksty, które wyglądają jak prawo – z numerami artykułów, cytatami, a nawet pozornie spójnym orzecznictwem.

W marketingu czy komunikacji korporacyjnej taka płynność bywa zaletą. W sporze prawnym staje się jednak pułapką. Fałszywy przepis, nieistniejący wyrok czy błędnie dobrany reżim prawny w piśmie procesowym nie są zwykłą omyłką redakcyjną. To błąd o ciężarze gatunkowym zdolnym przesądzić o wyniku sprawy i uruchomić realne konsekwencje dla tych, którzy firmują dany dokument swoim nazwiskiem.

Konsekwencje – realna skala ryzyka dla biznesu

  1. Utrata reputacji – pismo, które brzmi profesjonalnie, ale okazuje się merytorycznie wadliwe, podkopuje wiarygodność firmy i to nie tylko w oczach sądu, lecz także kontrahentów i partnerów biznesowych.
  2. Odpowiedzialność ludzka – algorytm nie jest stroną postępowania, nie ponosi odpowiedzialności kontraktowej ani dyscyplinarnej. Odpowiada zawsze człowiek – prezes, członek zarządu, czy pełnomocnik – który taki dokument podpisał i złożył.
  3. Ukryte koszty pozornej oszczędności – to co na początku wygląda jak szybkie i tanie rozwiązanie, w dłuższej perspektywie może wygenerować koszty wielokrotnie przewyższające cenę rzetelnej analizy. W kwestiach prawnych oszczędzanie na merytoryce bywa jedną z najdroższych decyzji biznesowych.

Narzędzia generatywnej sztucznej inteligencji dają szybki, atrakcyjny język. Jednak w sporach należy rozróżnić co jest sugestią językową, a co  wykazaną podstawą prawną i dowodową. Tam, gdzie liczy się odpowiedzialność, decydujący powinien pozostać człowiek.

Źródła:

Wyrok Sądu Okręgowego we Wrocławiu z 27.11.2025 r. sygn. X GC 455/25

Łozińska, Zlecił chatowi GPT napisanie pozwu. Przegrał w sądzie. Znamy uzasadnienie, https://www.gazetaprawna.pl/firma-i-prawo/artykuly/10615039,zlecil-chatowi-gpt-napisanie-pozwu-przegral-w-sadzie-znamy-uzasadnie.html, 7.01.2026 r.

Łozińska, Porady prawne od AI ryzykowne. Przypadek pozwu przygotowanego przez chat GPT, https://serwisy.gazetaprawna.pl/orzeczenia/artykuly/10600750,porady-prawne-od-ai-ryzykowne-przypadek-pozwu-przygotowanego-przez-chat-gpt.html, 8.12.2025 r.

Merken, New York lawyers sanctioned for using fake ChatGPT cases in legal brief, https://www.reuters.com/legal/new-york-lawyers-sanctioned-using-fake-chatgpt-cases-legal-brief-2023-06-22/, 26.06.2023 r.

Neumeister, Ex-Trump lawyer Michael Cohen says he unwittingly sent AI-generated fake legal cases to his attorney, 29.12.2023 r., https://apnews.com/article/michael-cohen-donald-trump-artificial-intelligence-777ace9cc34aa0e56398fd47a1d6b420,

Legg, V. McNamara, AI is creating fake legal cases and making its way into real courtrooms, with disastrous results, 12.03.2024, https://theconversation.com/ai-is-creating-fake-legal-cases-and-making-its-way-into-real-courtrooms-with-disastrous-results-225080

Stempel, Michael Cohen will not face sanctions after generating fake cases with AI, 20.03.2024, https://www.reuters.com/legal/michael-cohen-wont-face-sanctions-after-generating-fake-cases-with-ai-2024-03-20/