mgr inż. Karol Grabowski

Spis treści
Streszczenie

Unowocześnianie funkcjonowania systemu sprawiedliwości i egzekwowania prawa przez sądy polega obecnie na włączaniu potencjału narzędzi sztucznej inteligencji na wszystkich etapach przygotowywania materiału dowodowego. Ma to miejsce zwłaszcza w sytuacjach, gdy konieczna jest analiza dużych ilości materiałów w wielu postaciach. Wiarygodność dowodów jest warunkowana czynnikami, do których należy transparentność, wyjasnialność, równość w dostępie do nich przez strony postępowania. Algorytmy muszą odpowiadać bieżącym potrzebom wymiaru sprawiedliwości w drodze „głębokiego uczenia” maszynowego. AI jest przydatna również w samym procedowaniu spraw. Stosowanie sztucznej inteligencji musi wynikać z obowiązującego prawa w przedmiotowym zakresie.

Wstęp

Artykuł koncentruje się na wykorzystywaniu algorytmów AI jako narzędzi wspomagających i usprawniających funkcjonowanie systemu prawa w obecnym stanie uregulowań systemowych. Umożliwia to osiąganie wieloaspektowych korzyści w postaci opracowania materiałów dowodowych i pracy samych sądów jako urzędów. Narzędzia te znajdują coraz szersze zastosowanie. Dotychczasowy stan prawno-organizacyjny dotyczący stosowania AI w głównej mierze opiera się na utrwalonych zasadach funkcjonowania systemu sądowego i zasadach zdroworozsądkowych. Ważność wymiaru sprawiedliwości dla jednostek i podmiotów zbiorowych wymaga ujęcia zagadnienia w jednolite ramy prawa i dostosowywania go do zgodności z realiami w trybie ciągłym. Obowiązujący akt prawny o sztucznej inteligencji ustala zasady jednolitego rynku i przepisy korzystania z wiarygodnej sztucznej inteligencji na terenie państw UE. Myślą przewodnią dokumentu jest promowanie innowacji i wdrażania AI oraz przeciwdziałanie możliwym zagrożeniom dla zdrowia, bezpieczeństwa i praw podstawowych obywateli, ochrona demokracji i praworządności. Ustalenie zasad zawartych w AI Act poprzedziła analiza ryzyka dla podmiotów stosujących sztuczną inteligencję wobec jej konkretnych zastosowań1. Szczególnie dotyczy to systemu sprawiedliwości w całej rozciągłości i różnorodności kwestii, które na wszystkich etapach postępowania sądowego i procesowego mogą się pojawiać.

Wykorzystywanie algorytmów w systemie prawa miało już miejsce w projekcie Predictice we Francji w przewidywaniu decyzji w postępowaniach sądowych, w Estonii gdzie technologię AI stosowano w rozpatrywaniu spraw wypadków drogowych, a także w analizie akt Europejskiego Trybunału Praw Człowieka. Użycie systemu sztucznej inteligencji na poszczególnych etapach postępowania powinno uwzględniać jej zalety, ale jeszcze w większym stopniu ograniczenia wynikające z faktu, iż jest to system uczący się i korzystający z wiedzy, która została do jego zasobu wprowadzona. Tym samym może być ona błędna i nieobiektywna, a rzeczywistość cyfrowa nieodpowiadająca prawdziwej. Prawna, organizacyjna, etyczna niejednoznaczność, ograniczona transparentność algorytmów i wyjaśnialność podejmowanych przez AI decyzji, konieczność zapewniania ochrony praw stron i człowieka w postępowaniu, gwarancji praw procesowych, ogranicza możliwość zastosowania algorytmów AI w systemie prawa do wykonywania czynności analitycznych, pomocniczych, np. w ocenie wartości dowodowej materiałów cyfrowych, analizie nagrań wideo, głosowych, materiałów z komunikatorów, kamer przemysłowych, samochodowych. Przywołane przykłady wskazują na skuteczność sztucznej inteligencji wraz z jednoczesnymi zagrożeniami dotyczącymi nieprawidłowej interpretacji reguł prawa, a tym samym konieczność ludzkiego nadzoru i interwencji w przypadku uzasadnionych wątpliwości.

1. Koncepcja i rozwój sztucznej inteligencji w systemie egzekwowania prawa

Od 2016 r. na skutek postępów rozwoju programów komputerowych przydatność AI jest rozpatrywana w kontekście zadań, które może wykonywać na różnych etapach egzekwowania prawa. Zdolność samouczenia się algorytmów, umożliwia ich praktyczne, sprawne i skuteczne wykorzystanie w wykonywaniu skomplikowanych czynności analityczno-poznawczych, porównawczych i innych zwłaszcza, gdy wymaga to przeszukiwania znacznych ilości zdygitowalizowanego materiału. Charakterystyka systemów AI skutkuje ich zastosowaniem w analizie dowodów cyfrowych przyczyniając się do wieloaspektowego unowocześniania wymiaru sprawiedliwości, umożliwiając szybką i dokładną ocenę dowodów.

 Kierunki rozwoju technologii AI w praktycznym funkcjonowania systemu prawa wymagają antycypowania możliwych kierunków jej zastosowania w wymiarze sprawiedliwości, przewidując jej rozszerzającą się implementację. Trendy i prognozy wskazują na potencjał sztucznej inteligencji w usprawnianiu procesów. W oczywisty sposób wiąże się to również z kodyfikacją roli algorytmów „myślących” w ciągach czynności przewidzianych dla podmiotów prawa- sądów, organów administracji, w gałęziach prawa, postępowaniach cywilnych, karnych, administracyjnych, sądowo-administracyjnych, wyspecjalizowanych postępowaniach prawnych na etapach przewidzianych dla konkretnego rodzaju: przygotowawczego, przygotowywania do rozprawy, jej realizacji, dokumentowania wydania wyroku, postępowania odwoławczego i postępowania wykonawczego2.

Wdrażanie i rozszerzanie roli systemów sztucznej inteligencji w wymiarze sprawiedliwości wymaga szczegółowego sprecyzowania zakresu czynności, które mogą analizowane przez algorytmy w sposób go usprawniający, nie naruszający prawa do rzetelnego procesu i nie wchodzący w kolizję z podstawowymi dokumentami: Ustawą z dnia 6 czerwca 1997 r. – Kodeks karny (Dz.U. 2025 poz. 383 ze zm.), Ustawą z dnia 23 kwietnia 1964 r. – Kodeks cywilny (.Dz.U. 2025 poz. 1071 ze zm.), Ustawą z dnia 17 listopada 1964 r. – Kodeks postępowania cywilnego (Dz.U. 2024 poz. 1568 ze zm.), Ustawą z dnia 20 maja 1971 r. Kodeks wykroczeń (Dz.U. 2025 poz. 734 ze zm.)3. Niezbędne jest również zapewnianie i utrzymywanie kontroli nad systemami w warunkach przewidywanych zmian. Skuteczne i bezpieczne wykorzystywanie systemów AI w sądownictwie zależy od adekwatnego podziału kompetencji pomiędzy cyfrowy system i człowieka wyposażonego w specjalistyczną wiedzę i doświadczenie zawodowe. Za konieczne uznaje się analizowanie w trybie ciągłym skutków funkcjonowania systemów sztucznej inteligencji w obowiązującym w danym kraju systemie sądowniczym i zapobieganie umniejszania roli człowieka w decydujących fazach egzekwowania prawa poprzez nadmierne upraszczanie procedur4.

Zapewnianie rzetelności procesu oraz skuteczne korzystanie z odwoławczych środków zaskarżenia wiąże się niezaprzeczalnie z koniecznością transparentnego działania algorytmów sztucznej inteligencji i korzystania z nich. Strony procesu, a zwłaszcza pełnomocnicy stron powinni mieć pełną świadomość, iż całkowita przejrzystość działania algorytmów umożliwiła rzetelne dokonanie oceny materiału dowodowego na podstawie, którego zapadły wyroki. Powyższe spowoduje wzrost akceptowalności społecznej wykorzystania AI do wspierania rozstrzygania spraw sądowych, również na skutek skrócenia czasu od chwili wniesienia pozwu do momentu rozstrzygnięcia sprawy. Osiągnięcie postulowanego poziomu publicznego zaufania do procesów przygotowywanych i prowadzonych z użyciem sztucznej inteligencji może być rezultatem zapewniania ciągłości ocen stanu wyjaśnialności działania algorytmów, również z wykorzystaniem wiedzy przedstawicieli zewnętrznych ekspertów i audytorów. Działanie takie pozwala na zwiększenie szans identyfikacji i eliminacji luk oraz potencjalnych błędów w zaprojektowanych procedurach oraz wdrożonej technologii5.

Przeniesienie się przestępczości do rzeczywistości cyfrowej i korzystanie z nowoczesnych technologii w celach osiągania korzyści w rozmaitych aspektach funkcjonowania społeczeństw spowodowało, iż przeciwdziałanie im i karanie przestępców wymaga analizowania danych istniejących w świecie wirtualnym. Kluczowym dla wiarygodnego i skutecznego korzystania ze śladów i dowodów cyfrowych w postępowaniu sądowym, z jednoczesnym dochowaniem gwarancji ochrony praw procesowych stron i osób rozstrzygających sprawy sądowe jest wdrażanie odpowiedniego i wszechstronnego systemu weryfikacji danych oraz walidacji dowodów cyfrowych. Opracowane normy techniczne, w tym zaliczające do serii ISO/IEC 17025:2017, dotyczące metod badawczych mają istotne znaczenie w procesie weryfikacji dowodów cyfrowych, ponieważ zapewniają dochowanie postulowanej jakości i kompetencji laboratoriów techniki kryminalistycznej w wykorzystywania dowodów w procesach sądowych. Ścisłe przestrzeganie zasad ekspertyzy technicznej w centrach ekspertyz zapobiega powstaniu przekłamań, występowaniu systemowych błędów i podważania wiarygodności dowodów w procesie sądowym. Rozwój cyberprzestepczosci oraz możliwość dokumentowania śladów i dowodów z użyciem technik cyfrowych stwarza sytuację, w której zapewnianie jakości we wszystkich rodzajach postępowania z użyciem AI musi obejmować audyt procesu przygotowania i wyboru danych, na których algorytmy będą nieustnie „trenowane” i uczone. Sposoby dokonywania przestępstw typu sextortion, revenge porn, deepfake porn, cybergrooming, których cechą charakterystyczną jest fakt, iż przestępca jest manipulatorem danych cyfrowymi, wzmaga konieczność zapewnienia ustawowej gwarancji autentyczności danych stanowiących dowód. Rosnąca ilość przestępstw tego rodzaju wskazuje na potrzebę dokonania zmian w systemie prawnym dotyczącego rozwoju technologii. System kontroli jakości powinien zawierać w sobie również audyt sposobu przedstawiania oraz analizy uzyskanych wyników algorytmicznych w procesach rozumianych jako całość szczególnie z obszaru prawa gospodarczego, dotyczących kwestii medycznych i innych, w których wymagana jest analizowanie, porównywanie i segregowanie dużej ilości informacji w tym metadanych ogólnych, instytucjonalnych i dziedzinowych. Systematyczne analizowanie skuteczności stosowanych programów sztucznej inteligencji ma istotne znaczenie w procesie wdrożenia systemów je wykorzystujących6.

Pewność realizacji prawa procesowego mającego skutkować przeprowadzeniem sprawiedliwego i rzetelnego postępowania sądowego, zakończonego orzekaniem trudnym do podważania zakłada eliminację sytuacji, w których systemy algorytmiczne samodzielnie decydują o rozgraniczeniu strefy, w której system działa automatycznie i bez ingerencji w proces osób uprawnionych do rozstrzygania istoty sprawy. Weryfikowanie z powodu swej interdyscyplinarności powinno obejmować holistyczną współpracę osób biegłych, posiadających kompetencje z zakresu prawa, technologii oraz dziedzin, których dotyczy audytowany obszar. Ponadto systemy powinny być chronione przed nieautoryzowaną ingerencją, naruszeniami systemów bezpieczeństwa algorytmicznego, monitorowane w celu uniemożliwienia zakwestionowania ich wiarygodności, dochowania rzetelności rozstrzygnięć w procedowanych sprawach1. Powszechność stosowania sztucznej inteligencji oraz korzyści z tego wynikającego nie wymagają akceptacji stron, ponieważ bezstronność i brak zaangażowania programów zapewniają korzyści dla wszystkich zantagonizowanych i uczestniczących w procesie stron. Strony powinny jednakże mieć świadomość jej użycia, zwłaszcza gdy osoby bezpośrednio zainteresowane rozstrzygnięciem są ofiarami cyberprzestępstw. Akceptacja ta może być warunkowana odpowiednim jej zarządzaniem przez interesariuszy bezpośrednich lub pośrednich – sędziów. Warunkiem jest również posiadanie przez strony, a zwłaszcza ich pełnomocników, wiedzy dotyczącej przysługujących im praw związanych z systemem AI oraz informacji o potencjalnych niedoskonałościach i błędach w działaniu algorytmów, które mogą zakłócić działalność systemu. Konsultowanie korzystania z planowanego użycia rozwiązań AI z grupą interesariuszy może zwiększyć poziom akceptacji systemu i uzyskania realnej pewności w zakresie zapewnienia bezpieczeństwa jednostki w aspekcie proceduralnym tak w zakresie jej praw, jak i rozstrzygnięć. Wynika z tego potrzeba edukowania pracowników wymiaru sprawiedliwości na temat ich praw i obowiązków oraz ogółu obywateli w kwestii funkcjonowania systemu AI w polskim systemie wymiaru sprawiedliwości

2. Transparentność stosowania technologii AI w praktyce prawa

Stosowanie systemu w wymiarze sprawiedliwości spełnia wymogi przydatności pod warunkiem dochowania transparentności oraz wyjasnialnosci decyzji podejmowanych z jej użyciem, ponieważ tylko w ten sposób gwarantowana jest rzetelność procesowa i zgodność z ochroną praw jednostki. Dochowanie tych wymogów sprzyja zrozumieniu i akceptacji przez użytkowników, uczestników procesów i instrumentariuszy algorytmicznych podstaw, na podstawie których system przygotowuje podstawy podejmowania decyzji. Jednocześnie redukuje to ryzyko naruszania praw procesowych. Kwestie posługiwania się i obsługi systemów wysokiego ryzyka, których to cech AI nabiera w kontekście prawa, reguluje AI Act i ustawa o ochronie danych osobowych9.

Transparentność w omawianym kontekście polega na informowaniu podmiotów zainteresowanych i uczestniczących o sposobie pozyskiwania danych stanowiących podstawę podejmowania decyzji oraz potencjalnych zagrożeniach z tego wynikających. Ma na celu zachowanie rzetelności procesowej oraz umożliwienie praktycznego korzystania z praw do odwołań dla stron, które są objęte postępowaniem. Wskazywanie algorytmicznych podstaw działania technologii automatyzacji wzmacnia prawa procesowe oraz ogranicza konsekwencje, które niosą ze sobą powyższe rozwiązania. Niedochowanie zasady transparentności w użyciu sztucznej inteligencji w przygotowywaniu procesów sądowych podważa legitymację procesową oraz zasadność stosowania systemu. Istotę sprawy ilustruje w sposób praktyczny wyrok TSUE C-321/21 dotyczącego prawa strony w procesie karnym do uzyskania informacji o mechanizmach podejmowania decyzji przez system AI, stosowany do tworzenia dowodów oraz prawa do kontroli tych dowodów. Ograniczenie dostępu do materiałów dowodowych przygotowanych przez system sztucznej inteligencji, a także wszelkie przesłanki mogące wywoływać wątpliwości co do naruszeń praw procesowych lub nieadekwatności przygotowywania procesu decyzyjnego, powinno być uwzględnione w aktualizacji dokumentacji oraz procedur obsługi systemu. Brak transparentności oraz czytelnych rozwiązań systemowych w implementacji technologii sztucznej inteligencji, zwłaszcza w systemach wysokiego ryzyka, skutkuje generowaniem problemów ze zrozumieniem przez strony materiałów dostarczonych przez sztuczną inteligencję, co przełoży się na możliwości skutecznego oskarżania/obrony. Ponadto osłabia to poziom społecznej akceptacji powszechnego stosowania sztucznej inteligencji we wdrażanych systemach10. Zagadnienie staje się szczególnie ważne w sprawach dużej wagi lub gdy materiały dowodowe mają złożony charakter. O zróżnicowanym podejściu do kwestii użyteczności AI w kontekście zróżnicowanej transparentności wskazują realia dotyczące m.in. Estonii i Francji, gdzie nie dąży się do stosowania systemów AI w obszarach działalności sądów, jeśli zachodzi wątpliwość pełnego audytowania oraz identyfikowalności danych oraz występuje brak powszechnej akceptacji systemów AI, jeżeli zachodzi ograniczenie transparentności11.

Jednoznaczność stosowania algorytmów dotyczy użycia systemu AI w sposób zapewniający, iż żadna ze stron procesowych nie zrozumie powodów i skutków analizy dowodów w sposób umożliwiający ich dowolną interpretację. Pełna wyjaśnialność zasad funkcjonowania systemu zapewnia brak jakichkolwiek podstaw kwestionowania decyzji podjętych z użyciem AI, a tym samym brak realnych możliwości obrony interesów przez obie strony postępowania. Wymaga to również odpowiedniego przygotowania kadr sądowych, sędziów oraz innych pracowników do umiejętnego czytania, rozumienia i interpretacji raportów przygotowanych poprzez algorytmy sztucznej inteligencji. Specyfika wymiaru sprawiedliwości sprawia, iż implementacja systemów AI wymaga stosowania weryfikowalnych, przejrzystych procedur poprzez opracowywanie odpowiednich reguł rejestrowania relacji algorytmów z elementami materiału dowodowego w celu identyfikowania i lokalizowania występowania potencjalnych obszarów błędów, które mogły pojawić się podczas klasyfikacji danych. Praktyka wskazuje, że implementacja odpowiednich mechanizmów do monitorowania i audytowania systemu AI jest niezbędną częścią zapewniania ochrony praw procesowych i proceduralnych stron w automatycznym systemie AI służącym do analizowania materiałów dowodowych. Doświadczenia systemu prawa w Estonii i Francji wskazują, iż skuteczność AI jest ograniczona, jeśli w fazie wdrożeniowej i użytkowania wytyczne dotyczące audytowania i monitorowania działania wytyczne będą miały postać niepełną lub niewystarczającą12. Zasady te są szczególnie ważne w kontekście odwołań procesowych oraz ochrony praw stron procesowych. Doświadczenia Estonii i Szwecji dotyczące systemu AI wskazują, iż powinien on pełnić rolę gwaranta kontroli oraz zwiększać pewność niepodważalności rozstrzygnięć przygotowanych z użyciem AI przez instancje nadrzędne i odwoławcze. Ich implementacja do technologii AI wzmacnia ochronę praw procesowych stron w postępowaniu, zapewnia istnienie pożądanej równowagi oraz prawa stron do kontroli i transparentnej interpretacji decyzji podejmowanych z użyciem AI. System kontrolny może być powszechnie przyjętą metodą zapewnienia przez niezależną od systemu sztucznej inteligencji stronę nadzoru i oceny wydanych werdyktów i rekomendacji w całym obszarze działalności sądowej13.

Transparentność w działaniu i jednoznaczna czytelność decyzji AI szczególne miejsce znajduje w sferze ochrony praw jednostek w sprawach dotyczących danych wrażliwych, takich jak dane osobowe ofiar cyberprzestępczości lub ofiar przemocy domowej. Transparentność mechanizmów przetwarzania materiałów dowodowych za pomocą sztucznej inteligencji jest niezbędna, aby strony postępowania uznały decyzje AI za dopuszczalne, zwłaszcza w kontekście postępującej digitalizacji wymiaru sprawiedliwości. Polski system wymiaru sprawiedliwości w kontekście transparentności i jednoznaczności działania szczególne znaczenie nadaje społecznemu dialogowi dotyczącego możliwości pełnej implementacji systemu AI, konsultacjom w gronie prawników, informatyków i specjalistów innych dziedzin dotyczącym wykorzystywania materiałów opracowanych z jego użyciem w procesach postępowania karnego, wdrażaniu polityk i procedur transparentnego stosowania systemu sztucznej inteligencji w polskich sądach14.

3. Stosowanie materiałów cyfrowych w systemie sprawiedliwości

Użycie danych przyjętych jako dowód w sprawie lub będących analitycznymi opracowaniami materiałów przez systemy sztucznej inteligencji na nośnikach informatycznych uznawanych w systemie prawnym jako dopuszczalne, m.in. płytach CD/DVD, dyskach twardych (HDD/SSD), USB (pendrive), kartach pamięci musi zapewniać ich trwałość, integralność informacji, uniemożliwiać dokonywanie zmian w jakikolwiek sposób. Odpowiada to ustaleniom art. 169–173 k.p.k. Zasada równości stron postępowania nakazuje również zapewnianie dostępu do sprzętu i oprogramowania, co obecnie nie stwarza problemu. Ponadto w kontekście materiałów dowodowych kluczowym problemem jest niekwestionowana integralność i autentyczność. W obowiązującym stanie przepisów odnoszących się do nośników danych zagadnienie to wymaga uzupełniającego uregulowania. Wniosek w tej sprawie w 2014 r. zgłosił Rzecznik Praw Obywatelskich, zgłaszając potrzebę uznania przez sądy za równorzędne płytom CD/DVD w drodze resortowego rozporządzenia, dowodów- plików cyfrowych: audio, wideo, fotografii dostarczanych urządzeniami usb, mailem, transferem na serwer strony internetowej sądu oraz ustalenie jednolitych zasad weryfikacji autentyczności, integralności, rozliczalności materiałów. Wniosek przez Ministerstwo Sprawiedliwości nie został uznany jako uzasadniony. Sposób przyjęcia i uwierzytelnienia zapisu cyfrowego- materiału dowodowy może zostać niedopuszczony – przez kwestie nośnika, a nie przez to, co w nim faktycznie zawiera. Każdorazowo jest to kwestią uznaniową danego sądu. Nie obowiązuje jedna interpretacja przedstawiania dowodu, a brak standaryzacji powoduje różnorodność orzeczeń i utrudnia wyrokowanie w procesie, co jest sprzeczne z ideą jednorodności sprawiedliwości15. Dowolność i uznaniowość przyjmowania danych cyfrowych na różnych nośnikach oraz uwierzytelnianie materiału potwierdza konieczność wprowadzenia systemowych uregulowań prawnych rangi ustawowej w zakresie dowodów cyfrowych. Brak zdefiniowania procedur w omawianym temacie zakłóca lub uniemożliwia współpracę przy sprawach związanych z dowodami cyfrowymi, zakłócając sprawną komunikację w trakcie procesu /pomiędzy instancjami lub sądami w różnych miejscowościach/, grozi podejmowaniem błędnych decyzji przez dysponowanie informacjami uznanymi za wiarygodne lub nie. Sprawa ta godzi w podstawowe prawa procesowe.

Przyjęty materiał dowodowy musi być bezwarunkowo zabezpieczony przed jego modyfikacją. Ważne jest stworzenie systemu, który uniemożliwi dokonywanie zmian lub pozwoli na błyskawiczne uwierzytelnienie z wykorzystaniem zaawansowanych technologii.

Algorytmy AI znajdują zastosowanie przy sprawach o złożonym charakterze, gdzie analiza danych w tradycyjny sposób znacznie wydłużyła by ich rozpoznanie- gospodarczych, finansowych, marketingowych, medycznych. Użycie systemów analitycznych w rozpoznawaniu spraw dotyczących służby zdrowia wykazało ich wysoką skuteczność w dostrzeganiu złożonych zależności (wzorów), analizowanych danych statystycznych i jakościowych. Wykorzystanie takich rozwiązań technologii predykcyjnych wpływa na skuteczność oddzielenia różnic w materiałach dowodowych, różnicowanie danych dostarczanych na ich podstawie przez strony postępowania. W tym obszarze szczególnie ważne jest monitorowanie oraz walidacja, prowadząca do kontroli nad procesem decyzyjnym przez osoby rozstrzygające. Jest to jednak warunkowane uprzednim uczeniem maszynowym /random forest/ dostarczonym zbiorem danych treningowych pod nadzorem człowieka, walidacją danych ponieważ ich brak grozi wystąpieniem błędnych wyników, przekłamywaniem dowodów, zapewnieniem prywatności danych i ochrony danych osobowych w praktycznym wykorzystaniu. Prawidłowa walidacja powinna uwzględniać zróżnicowanie prawne w procesie treningu. Rzetelne stosowanie, musi iść w parze z wytycznymi i szkoleniami dla osób rozstrzygających16. W analizie dowodów cyfrowych wykorzystywane są systemy, które są w stanie wyciągać wnioski, rozpoznawać wzorce i podejmować w tym zakresie autonomiczne decyzje. Wykorzystywanie AI w dziedzinie prawa, wobec specyfiki dowodów, powinno wiązać się z odpowiednią interpretacją wyników przez ludzi- system nie jest do tego uprawniony. Proces wykorzystywania programów doprowadza do zmiany charakteru ról osób rozstrzygających w kontekście analizy materiału dowodowego, zmian w edukacji w kontekście interwencji w algorytmy, ograniczeń ich efektywności, kompetencji podmiotów orzekających. Wspieranie procesu rozstrzygania spraw przez algorytmy w zakresie predykcji może skutkować pewnym uproszczeniem wielowymiarowego charakteru procesu rozstrzygania i nieuwzględnianie kontekstów precedensowych, pozaprawnych, społecznych, co wyklucza uznawanie przygotowanych danych jako wiążących17.

Potencjał sztucznej inteligencji tkwi również w usprawnianiu pracy samych sądów podczas procesów i ich pracy jako urzędów. Wprowadzenie i upowszechnienie e-protokołu, cyfryzacja zapisów dźwięku i obrazu znacząco usprawniło proces archiwizacji sesji, poprawiło procedury dostępności zdigitalizowanych akt sądowych dla stron postępowania. Zapis elektroniczny z użyciem sztucznej inteligencji pozwala na odczytywania głosu lub jego transkrypcję, obserwację wizualną uczestników postępowania, zautomatyzowaną analizę tekstu z ekstrakcją kluczowych danych, słów o szczególnym znaczeniu dla sprawy, a także identyfikację emocji i ekspresji uczestników postępowania. Analiza nagrań dźwięku i obrazu zwiększa prawidłowość oceny przekazanych dowodów. Zastosowanie AI do automatycznego zapisu treści wypowiedzi minimalizuje ryzyko błędu podczas zapisywania informacji. Skutkiem ubocznym stosowania zapisu elektronicznego jest prawdopodobieństwo wystąpienia problemów dotyczących bezpieczeństwa, zagrożeń ochrony danych i ich integralności. Całkowite oparcie się na cyfryzacji tych procesów wymaga zdefiniowania standardów przechowywania plików elektronicznych i zagwarantowania autentyczności dostarczanych dowodów. Wykorzystywanie sztucznej inteligencji w obszarach związanych z obsługą dokumentacji elektronicznej oraz logistyką procesową znacznie je upraszcza, jednakże wymaga to dostosowywania przedmiotowych przepisów przez legislatorów i przedstawicieli prawa, polityków w celu doprowadzania ich do logicznej i prawnej zgodności oraz zastosowania do zachodzących procesów w których istotną rolę odgrywać będą systemy AI.

W instytucjach sektora administracji publicznej i sądownictwa algorytmy sztucznej inteligencji są narzędziem zwiększającym ich wydajność i ograniczającym ilość błędów ludzkich, przekładając się na oszczędność finansową. Prawidłowe ich użycie zależy od wykluczenia lub znacznego ograniczenia prawdopodobieństwa wystąpienia multiplikacji błędnej interpretacji przepisów prawnych. To zaś wiąże się z bieżącym nadzorowaniem czy system wyciąga wnioski na podstawie rzetelnych danych, czy nie upraszcza procesów prawnych oraz czy nie powoduje naruszeń praw zainteresowanych stron postępowania rozwoju, doskonaleniem systemów, audytowaniem AI w działach administracji publicznej i sądownictwa. System AI dla sektora publicznego musi być nieustannie monitorowany, co wynika również z samej dynamiki zmian w nim zachodzących. Różnorodność i wieloaspektowość rozpatrywanych spraw w kontekście korzystania w nich z AI, zwiększa nacisk na szczególną odpowiedzialność za bezpieczeństwo danych osobowych, transparentność i niezawodność. Sfera publiczna jako wybitnie wrażliwa, wymaga restrykcyjnego stosowania działań regulacyjnych i audytowych, minimalizujących potencjalne naruszenia prawa ze strony programów opartych na sztucznej inteligencji18.

Wzrost liczby przypadków wykorzystania AI w sferze publicznej, również w sektorach wrażliwych dowodzi, że jest to technologia dojrzała. Dynamika zmian zachodzących w poszczególnych sektorach życia publicznego powoduje, że implementacja i wykorzystywanie sztucznej inteligencji jest ciągłym, ulegającym zmianom i ulepszeniom procesem. Wartość dowodowa materiałów przygotowanych/opracowanych przez AI zależy od zastosowanego uczenia maszynowego, a ponieważ jego zadaniem jest wychwytywanie cech istotnych z perspektywy decyzyjnej zawartych w danych wyjściowych, narzędzie to powinno być albo wszechstronnie przygotowane i uniwersalne albo mieć charakter wyspecjalizowany. Na podstawie przeprowadzonej analizy dokonywana jest ocena faktów odpowiednio z obowiązującymi normami prawa. Efektywność zastosowanych rozwiązań technologii predykcyjnych uzależniona jest od posiadanych przez uczenie maszynowe informacji o cechach rozpoznawczych analizowanego zjawiska, od dostępności danych, materiałów i dokumentów.

Wykorzystywanie sztucznej inteligencji do prognostyki wyroków sądowych powinno stanowić powód do refleksji nad tematem legitymacji tak powstających decyzji oraz nad możliwościami wykorzystywania odwoławczych środków kontroli w związku z ewentualnymi nieprawidłowościami algorytmu. Kluczem do trwałej obecności AI w sądownictwie jest stosowanie kombinacji narzędzi z obszaru prawa publicznego, identyfikowanie problemów występujących przy zarządzaniu cyfrowymi dowodami. Zasadnym wydaje wypracowaniu kryteriów kontroli nad rozstrzygnięciami opartymi na algorytmach i systemach przetwarzania dowodów w sposób automatyczny, dostosowanych do potrzeb uznawania ich wartości dowodowej. Jednocześnie ma to utrzymywać wymiar sprawiedliwości, jako składnik życia społecznego, oparty na zasadach humanizmu i proces kontrolowany przez osoby uprawnione do rozstrzygania.

AI w praktyce sądowej

Narzędzia sztucznej inteligencji automatyzują i ujednolicają standardy procesowej oceny materiału dowodowego. Redukuje to liczbę błędów, do których może dojść z powodu nadmiernego obciążenia osób, które prowadzą sprawy sądowe, pomaga w podjęciu przez ludzi decyzji w zakresie wartości dowodowej poszczególnych materiałów, co jednakże jest prerogatywą ludzi. Celem wprowadzenia narzędzi AI do systemu egzekwowania prawa jest wyodrębnienie najistotniejszych materiałów dowodowych dla sprawy i automatyczna redukcja liczby dowodów o najmniejszym znaczeniu. Klasyfikacji polega na analizie metadanych, dat i czasu sporządzenia, źródła i typu pliku. Filtracja materiału dowodowego umożliwia składowi orzekającemu sędziemu skupienie się na kluczowych dowodach, jego ocenę, ogranicza utratę czasu. Sztuczna inteligencja ułatwia ujawnienie ukrytych cech, wzorców zależności w obszernych zbiorach danych, podejmowanie adekwatnych decyzji w rozstrzygnięciu skomplikowanych spraw, w których występuje bardzo duża ilość zróżnicowanych danych. W procesach, w których kluczową rolę pełni analiza dokumentów z użyciem języka naturalnego materiał dowodowy stanowią nagrania z mediów społecznościowych lub pliki multimedialne19.

Znaczenie sztucznej inteligencji w postępowaniu cywilnym rozpoznawczym w trybie procesowym, rośnie od momentu wniesienia pozwu (art. 192 KPC) względem etapu przygotowań do sprawy. Wynika to z powodu dużej liczby pism procesowych składanych w toku procesu zarówno w każdej z instancji. Narzędzie jakim jest system Gaius Lex, umożliwia ograniczanie problemu piętrzenia się pism procesowych w każdej prowadzonej sprawie. Wyposażony w anonimizator, udostępnia ok. 3,5 mln dokumentów prawnych- orzeczeń, interpretacji podatkowych i przepisów. Pozwala na tworzenie własnej bazy dokumentów. Dokonuje automatycznej analizy ryzyk prawnych. Możliwości systemu wspomaganego sztuczną inteligencją pozwalają na zobowiązaniu strony (na podstawie art. 2053 § 1 KPC), do podania w piśmie przygotowawczym wszystkich twierdzeń i dowodów niezbędnych dla rozstrzygnięcia sprawy, pod rygorem utraty prawa do ich powoływania w toku dalszego postępowania. Jego przydatność ułatwia sporządzanie środków odwoławczych, weryfikację przysługującego zażalenia od konkretnego postanowienia przysługuje zażalenie w świetle obowiązującej wersji kodeksu. Funkcja sztucznej inteligencji ułatwia merytoryczną weryfikację stwierdzeń w uzasadnieniach, również na podstawie orzecznictwa innych sądów, tworzy ich uściślenia i ujednolicenie linii orzeczniczych20. W sprawach z obszaru medycyny wykorzystywany jest wysoko skuteczny system diagnostyczny CheXNet, wytrenowany na obszernym, reprezentatywnym zbiorze danych.

Przydatność algorytmów AI dostrzegalna jest z sprawach dotyczących własności intelektualnej, znaków towarowych, gdy materiał dowodowy ma postać zrzutów ekranów, zapisu strony internetowej, wpisów z urzędowych baz danych. Warunkiem przyjmowania zapisu internetowego jest pewność, że dany zapis pochodzi ze strony internetowej osoby fizycznej/prawnej, będącej jej właścicielem, co ogranicza ryzyko odrzucenia materiału z powodu wątpliwości ich zmiany lub przekłamań chronologii zdarzeń21.

Kwestie sporne dotyczące mediów społecznościowych w całym zakresie problematyki: naruszeń dóbr pojedynczych osób, rozstrzygnięć na styku państwo- firmy Bigdata wymagają analizy wielkiej ilości danych cyfrowych, czemu może sprostać algorytm. Znaczną rolę pełnią zapisy w dokumentacji elektronicznej w sprawach o ochronę osób pokrzywdzonych, m.in. „Niebieskich Kart”. Archiwizacja danych elektronicznych, przyśpiesza czas wydania decyzji, np. nakazu zbliżania się22.

Skuteczność klasyfikacji materiału dowodowego przez systemy sztucznej inteligencji oraz ocena wartości dowodowej materiału cyfrowego jest warunkowana ciągłym rozwojem algorytmów AI i ich dostosowywaniem do wymogów sądownictwa. Ważną kwestią jest zapewnianie kompetencji osób odpowiadających za interpretację i wdrażanie w praktykę analiz dokonanych przez systemy AI, dbanie o transparentność ocen przez algorytmy AI wartości dowodowej.

W kontekście polityki międzynarodowej ważnym aspektem jest wykorzystanie dowodów cyfrowych w konfliktach i wojnach– gromadzenie i wykorzystanie dowodów cyfrowych w sprawach zbrodni wojennych i naruszenia praw człowieka. Wysoka użyteczność narzędzi cyfrowych sprawia, że ściganie i dokumentowanie przestępstw dokonanych przez organy władzy państwa współgra z dostosowaniem i ujednolicaniem regulacji prawnych do zmieniających się realiów.

Narzędzie sztucznej inteligencji e-protokół, w instancjach sądów krajowych ułatwia pracę protokolantów w sądach w ponad 3,5 tys. salach rozpraw, przez co skuteczniejsze jest zorganizowanie akt, łatwiejszy dostęp do nagrania głosu i wideo dla stron oraz sędziów Dygitalizacja protokołu umożliwia rozbudowę systemów opartych na AI, np. w zakresie przechowywania i udostępniania dowodów cyfrowych. Wiąże się to z gwarantowaniem cyberbezpieczeństwa, zapewniającego integralność i autentyczność dowodów.

Wyzwania i ograniczenia

Podstawową kwestią dotyczącą sztucznej inteligencji jest jej prawne zdefiniowanie i umocowanie, stanowiące podstawę jej stosowania w dziedzinach życia i funkcjonowania społeczeństw, zwłaszcza w obszarach wysoko wrażliwych, do których należy wymiar sprawiedliwości. Dokumentem definiującym „system AI” i tworzącym ramy prawne dla jego bezpiecznego i etycznego stosowania jest przyjęte 13 czerwca 2024 r. przez Parlament Europejski i Radę Rozporządzenie (UE) 2024/1689 w sprawie sztucznej inteligencji –AI Act. Harmonogram wdrażania kluczowych przepisów opiewa na cezury czasowe od 2.02.2025 do 2. 08.2027. Dostosowywanie regulacji prawnych i techniczno-informatycznych powinna postępować wraz z rosnącym ilościowym i rodzajowym zwiększeniem się obszarów używania AI.

W obszarze prawa, rozwój uczenia głębokiego oraz rosnące zasoby danych cyfrowych redefiniują pojęcie sztucznej inteligencji w kontekście prawa, skutkując koniecznością ciągłej analizy norm prawnych i ich dostosowaniem do zmiennej relacji człowiek-maszyna w obszarze przetwarzania informacji i danych. Szczególne uwzględnienie powinny mieć wartości konstytucyjne, w tym rzetelność postępowania. Rozwój w obszarze postępowania dowodowego z dowodów cyfrowych zmusza do podejmowania działań w obszarze transparentności, autonomiczności rozstrzygnięć oraz odpowiedzialności, co wiąże się nieodłącznie z korzystaniem z materiału analitycznego na podstawie, którego następują rozstrzygnięcia procesowe. Styk prawa i systemów AI czyni kluczowymi zagadnienia wyjaśnialności i audytowalności. Decyzje AI muszą być zrozumiałe i akceptowalne, transparentne co zasad ich funkcjonowania, obiektywne i wykluczające podejrzenia działań manipulacyjnych i zakulisowych. Wykorzystywanie niewystarczających i nierzetelnych danych na etapie budowania systemów z zastosowaniem AI może przyczyniać się do powielania uprzedzeń i uproszczeń. Technologia AI wiąże się z potrzebą testowania funkcjonalności algorytmów, kontrolą jakości podejmowanych decyzji oraz zapobieganiem ryzykom społecznym i algorytmicznym. Powinny być ciągle monitorowane.

Podsumowanie

Materiały dowodowe przygotowane przez AI oraz decyzje wydawane na ich podstawie AI muszą być zrozumiałe, aakceptowalne, transparentne co do ich wartości merytorycznej i zasad funkcjonowania, ponieważ zaufanie użytkowników systemu sądowego opiera się na przekonaniu, że algorytmy działają obiektywnie i przejrzyście. Doświadczenia państw-pionierów w dziedzinie korzystania z potencjału AI wskazują na niezaprzeczalne korzyści czasowe, finansowe automatyzowania przygotowania i procedowania spraw. Dynamika zmian zachodzących w życiu społeczeństw, jakościowego i ilościowego rozwoju przestępczości powoduje, iż obecnych możliwości i sposobu algorytmów sztucznej inteligencji nie można uznać za niezmienne i zadowalające. Muszą one być dostosowywane w drodze „uczenia” do zachodzących zmian. Dotyczy to również polityki państwa w obszarze wymiaru sprawiedliwości i programów kształcenia ludzi, odpowiadających krajowym uwarunkowaniom prawnym i technologicznym.

Wgląd w problemy i możliwości wdrożenia sztucznej inteligencji, analiza prawnych, organizacyjnych i technicznych aspektów jej stosowania do oceny wartości dowodowej materiałów cyfrowych w procesie sądowym, potrzeby zapewnienia rzetelności postępowania, skuteczności i efektywności procesu sądowego, wskazuje na istnienie barier organizacyjnych, prawnych i technicznych podczas wprowadzenia sztucznej inteligencji. Potwierdzona została teza, że zapewnianie rzetelności postępowania sądowego z efektywnością i automatyzacją procesu możliwe jest tylko pod warunkiem podziału tych obszarów procesu, w których decyzje mogą być wspomagane przez systemy automatyczne oraz tych, które nie mogą być przez nie w żaden sposób wspierane. Wykazano istnienie znacznego potencjału narzędzi AI w systemie sprawiedliwości, który może być wykorzystany pod warunkiem dostosowywania regulacji prawnych jej dotyczących do jej stanu bieżącego. Celowym jest również wprowadzenie:

  • systematyczne testowanie skuteczności systemów AI w procesie oceny wartości dowodowej oraz kontrola nad jego funkcjonowaniem i wykorzystaniem,
  • zapewnianie przejrzystości działania i algorytmów sztucznej inteligencji, ich audytowalność i wyjaśnialność,
  • weryfikowanie i ocena wiarygodności dowodów cyfrowych z użyciem AI,
  • wdrożenie zmian w systemie legislacyjnym, ich adaptowanie do systemów automatyzacji wymiaru sprawiedliwości w procesie sądowym,
  • szkolenie kadr (użytkowników, administracji, pracowników, sędziów) w obszarze wykorzystania systemów AI; adekwatna do warunków certyfikacja kadr,
  • zmiany w zakresie: metod weryfikacji procesów i audytów w sądach, norm prawnych, certyfikacje, kontrole jakości, audyty oprogramowania i baz danych.
Przypisy

1Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) (Text with EEA relevance), Document 32024R1689.

2Lex Nawigator, https://www.wolterskluwer.com/pl-pl/solutions/lex/navigator [dostęp: 3.11.2025].

3E.A. Płocha, O pojęciu sztucznej inteligencji i możliwościach jej zastosowania w postępowaniu cywilnym, „ Prawo w Działaniu Sprawy Cywilne”, 2020, nr 44, s. 13-14.

4B. Kaczmarek-Templin, Sztuczna inteligencja (Al) i perspektywy jej wykorzystania w postępowaniu przed sądem cywilnym, ”Studia Prawnicze. Rozprawy i Materiały”, 2022, nr. 2 (31), s. 59-78; M. Bartoszek, Zastosowanie sztucznej inteligencji w sądownictwie w świetle zasady skutecznej ochrony sądowej, [w:] L. Górnicki (red,), „Folia Iuridica Universitatis Wratislaviensis, 2022, nr.11(1), s. 8-29.

5M. Kotalczyk, „Sztuczna inteligencja w służbie polskiego sądu – propozycje rozwiązań”, „IUSTITIA”, 2021, nr. 2, s. 60-66.

6E.M. Guzik-Makaruk, M. Zubańska, Sellected issues of implementation and using in practice new forensic solutions, „Prawo w Działaniu. Sprawy Karne”, 2023, nr.55, s. 9-24.

7A. Trubalski, A. Pogłódek, Status ustrojowy prokuratury oraz status prawny prokuratora we współczesnych państwach (Rozprawa doktorska, Szkoła Wyższa Wymiaru Sprawiedliwości). Wydawnictwo Szkoła Wyższa Wymiaru Sprawiedliwości. https://aws.edu.pl/wp-content/uploads/2024/02/Status-ustrojowy-prokuratora-t-I.pdf [dostęp: 4.11.2025].

8M. Czapska, M. Fiałka, Granica między transparentnością wobec podmiotów danych a tajemnicą przedsiębiorstwa w kontekście ochrony danych osobowych ze szczególnym uwzględnieniem AI [w:] Projektowanie systemów si zgodnych z RODO (r.pr.) J. Groszkowski, Urząd Ochrony Danych Osobowych,
Warszawa 2023, s. 6-26.

9Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji) (Tekst mający znaczenie dla EOG), Document 32024R1689; Ustawa z dnia 10 maja 2018 r. o ochronie danych osobowych (Dz.U. 2019 poz. 1781 ze zm.).

10M. Czapska, M. Fiałka, Granica między…… s.6-26.

11P. Kusznieruk, A. Zemke-Górecka, Aspekty i ramy prawne sztucznej inteligencji na gruncie prawa Unii Europejskiej, cz. 2. „Europejski Przegląd Prawa i Stosunków Międzynarodowych”, 2023,nr 1-2, s. 2-8.

12M. Bartoszek, Zastosowanie….s.8-29.

13B. Kaczmarek-Templin, Sztuczna inteligencja (Al)……,

14M. Wiącek,(2024). II.510.228.2024.ΜΑ. Rzecznik Praw Obywatelskich, https://bip.brpo.gov.pl/sites/default/files/2024/05/Do_MS_dowody_nagrania_nosniki_24_05_2024.pdf [dostęp: 6.11.2025].

15A. Bednorz, Sztuczna inteligencja i uczenie maszynowe w gerontologii klinicznej, „Gerontologia Polska”, 2014, nr.32, s. 125-132.

16M. Kotalczyk, „Sztuczna inteligencja, s. 60-66.

17M. Bartoszek, Zastosowanie….s.8-29.

18J. Blicharz, L. Zacharko, Wdrażanie technologii sztucznej inteligencji w administracji publicznej – kilka refleksji, „Opolskie Studia Administracyjno-Prawne”, 2023, s. 348–355.

19B. Kaczmarek-Templin., Sztuczna inteligencja….s. 7; E.A. Płocha, O pojęciu sztucznej…..s. 13-14.

20https://gaius-lex.pl/ai-procedury-cywilne/ [dostęp: 8.11.2025].

21https://guidelines.euipo.europa.eu/1935543/2117627/wytyczne-dot–znakow-towarowych/3-1-4-4-%C5%9Brodki-dowodowe [dostęp: 8.11.2025].

22Lewoc, M. (2024). Dokumentacja procedury „Niebieskie Karty” w postępowaniach sądowych. Studio Profilaktyki Społecznej Adam Rynkiewicz. https://kcpu.gov.pl/wp-content/uploads/2024/12/Dokumentacja-procedury%E2%80%93Niebieskie%E2%80%93Karty-w-postepowaniach-sadowych-kopia-2.pdf [dostęp:9.11.2025]

Bibliografia
  1. M. Bartoszek, Zastosowanie sztucznej inteligencji w sądownictwie w świetle zasady skutecznej ochrony sądowej, [w:] L. Górnicki (red,), „Folia Iuridica Universitatis Wratislaviensis, 2022.
  2. A. Bednorz, Sztuczna inteligencja i uczenie maszynowe w gerontologii klinicznej, „Gerontologia Polska”, 2014.
  3. J. Blicharz, L. Zacharko, Wdrażanie technologii sztucznej inteligencji w administracji publicznej – kilka refleksji, „Opolskie Studia Administracyjno-Prawne”, 2023.
  4. M. Czapska, M. Fiałka, Granica między transparentnością wobec podmiotów danych a tajemnicą przedsiębiorstwa w kontekście ochrony danych osobowych ze szczególnym uwzględnieniem AI [w:] Projektowanie systemów si zgodnych z RODO (r.pr.) J. Groszkowski, Urząd Ochrony Danych Osobowych, Warszawa 2023.
  5. E.M. Guzik-Makaruk, M. Zubańska, Sellected issues of implementation and using in practice new forensic solutions, „Prawo w Działaniu. Sprawy Karne”, 2023.
  6. B. Kaczmarek-Templin., Sztuczna inteligencja (Al) i perspektywy jej wykorzystania w postępowaniu przed sądem cywilnym, ”Studia Prawnicze. Rozprawy i Materiały”, 2022.
  7. M. Kotalczyk, „Sztuczna inteligencja w służbie polskiego sądu – propozycje rozwiązań”, „IUSTITIA”, 2021.
  8. P. Kusznieruk, A. Zemke-Górecka, Aspekty i ramy prawne sztucznej inteligencji na gruncie prawa Unii Europejskiej, cz. 2. „Europejski Przegląd Prawa i Stosunków Międzynarodowych”, 2023.
  9. E.A. Płocha, O pojęciu sztucznej inteligencji i możliwościach jej zastosowania w postępowaniu cywilnym, „ Prawo w Działaniu Sprawy Cywilne”, 2020.
  10. Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) (Text with EEA relevance), Document 32024R1689.
  11. Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji) (Tekst mający znaczenie dla EOG), Document 32024R1689.
  12. Ustawa z dnia 10 maja 2018 r. o ochronie danych osobowych (Dz.U. 2019 poz. 1781 ze zm.).
    A. Trubalski, A. Pogłódek, Status ustrojowy prokuratury oraz status prawny prokuratora we współczesnych państwach (Rozprawa doktorska, Szkoła Wyższa Wymiaru Sprawiedliwości). Wydawnictwo Szkoła Wyższa Wymiaru Sprawiedliwości.
  13. https://aws.edu.pl/wp-content/uploads/2024/02/Status-ustrojowy-prokuratora-t-I.pdf [dostęp: 4.11.2025].
  14. Lex Nawigator, https://www.wolterskluwer.com/pl-pl/solutions/lex/navigator[dostęp: 3.11.2025].
  15. Lewoc, M. (2024). Dokumentacja procedury „Niebieskie Karty” w postępowaniach sądowych. Studio Profilaktyki Społecznej Adam Rynkiewicz. https://kcpu.gov.pl/wp-content/uploads/2024/12/Dokumentacjaprocedury%E2%80%93Niebieskie%E2%80%93Karty-w-postepowaniach-sadowych-kopia-2.pdf [dostęp:9.11.2025].
  16. M. Wiącek,(2024). II.510.228.2024.ΜΑ. Rzecznik Praw Obywatelskich, https://bip.brpo.gov.pl/sites/default/files/2024/05/Do_MS_dowody_nagrania_nosniki_24_05_2024.pdf [dostęp: 6.11.2025].
  17. https://gaius-lex.pl/ai-procedury-cywilne/ [dostęp: 8.11.2025].
  18. https://guidelines.euipo.europa.eu/1935543/2117627/wytyczne-dot–znakow-towarowych/3-1-4-4-%C5%9Brodki-dowodowe [dostęp: 8.11.2025].