Aktualności Wydarzenia

Sztuczna inteligencja może być w przyszłości asystentem sędziego. Jego samego nigdy nie zastąpi

Sztuczna inteligencja może być w przyszłości asystentem sędziego. Jego samego nigdy nie zastąpi
Rozwiązania sztucznej inteligencji stosowane w wymiarze sprawiedliwości zaliczane są do kategorii wysokiego ryzyka, zgodnie z unijnym rozporządzeniem AI Act. To oznacza m.in. konieczność wdrożenia procedur nadzoru nad algorytmami.

Rozwiązania sztucznej inteligencji stosowane w wymiarze sprawiedliwości zaliczane są do kategorii wysokiego ryzyka, zgodnie z unijnym rozporządzeniem AI Act. To oznacza m.in. konieczność wdrożenia procedur nadzoru nad algorytmami. Dlatego nie ma ryzyka, że sztuczna inteligencja zastąpi sędziego i będzie za niego wydawać wyroki. W przyszłości może się jednak stać jego asystentem odpowiedzialnym m.in. za analizę dowodów czy przygotowywanie treści orzeczeń. Eksperci uważają, że może to znacząco usprawnić postępowania sądowe.

– W polskich sądach sztuczna inteligencja jest już wykorzystywana w prostych zadaniach, takich jak anonimizacja dokumentów, transkrypcja, wyszukiwanie orzeczeń czy chociażby monitorowanie i śledzenie zmian aktów prawnych. W przyszłości będzie asystentem sędziego, pomoże w prowadzeniu akt, wyszukiwaniu dowodów czy zaproponuje treść orzeczenia na podstawie podobnych spraw – mówi agencji Newseria Sebastian Szczepański, prezes zarządu Currendy.

Podobne zastosowania widać wśród całego środowiska prawników. Jak wynika z raportu „Future Ready Lawyer 2024” opublikowanego przez Wolters Kluwer, 76 proc. prawników z działów prawnych i 68 proc. prawników z kancelarii korzysta z generatywnej AI przynajmniej raz w tygodniu, najczęściej do researchu, analizy i automatyzacji tworzenia dokumentów.

– Teraz największym problemem, przed którym stoi sądownictwo, jest brak asystentów. Sędziowie mają bardzo dużo spraw, którymi się zajmują, jest duża liczba dokumentów, która jest przez nich do obrobienia. W momencie kiedy byśmy zaprzęgli do tych czynności sztuczną inteligencję, która np. prowadziłaby nam akta, analizowała dowody, proponowała podstawę prawną, to na pewno bardzo by to wpłynęło na szybkość postępowania – uważa prezes Currendy.

W świetle raportu „Rekomendacje w zakresie zastosowania sztucznej inteligencji w sądownictwie i prokuraturze” przygotowanego przez Grupę Roboczą ds. Sztucznej Inteligencji (Podgrupa ds. etyki i prawa) zakres zastosowania systemów AI jest bardzo szeroki. Może służyć m.in. jako wsparcie organizacji pracy sądów i prokuratury, pomoc w codziennych zadaniach sędziów, prokuratorów i innych pracowników wymiaru sprawiedliwości czy narzędzie do proponowania projektu uzasadnienia rozstrzygnięcia w konkretnej sprawie. W rekomendacjach GRAI w zakresie wdrożenia sztucznej inteligencji w sądownictwie znalazło się kilka propozycji, w tym m.in. automatyzacja przebiegu rozprawy do pisemnego protokołu, chatbot uzupełniający pracę Biura Obsługi Interesanta, system do wyszukiwania podobnych spraw czy też tłumaczenie rozprawy na żywo.

A to już wiesz?  Akcjom zbierania śmieci coraz częściej towarzyszy zbieranie pieniędzy. Platforma crowdfundingowa ułatwia pozyskiwanie środków na ekologiczne inicjatywy

– Sędzia bot na razie to czyste science fiction, ale mogę sobie wyobrazić pojedyncze przypadki, w których orzeczenia sądowe będą podejmowane przez sztuczną inteligencję. Mamy na przykład elektroniczne postępowanie upominawcze, prowadzone przez Sąd Rejonowy w Lublinie, gdzie tak naprawdę jest sprawdzana tylko kompletność dokumentów i zapada orzeczenie. W takich przypadkach jak najbardziej sztuczna inteligencja mogłaby się doskonale odnaleźć. Natomiast już w bardziej skomplikowanych, gdzie zapadają sprawy w sądzie rejonowym, okręgowym czy apelacyjnym, to jednak decyzja powinna należeć do człowieka – uważa Sebastian Szczepański.

Jak dodaje, na świecie sztuczna inteligencja w sądownictwie wykorzystywana jest częściej niż w Polsce.

– Na przykład w Chinach stosowana jest do prowadzenia rozpraw sądowych, do analizy dokumentów, do przesłuchiwania świadków i później do proponowania treści orzeczenia. Natomiast oczywiście, ostateczny wyrok zapada z udziałem człowieka – podkreśla ekspert. – Sztuczna inteligencja mogłaby być dużym wsparciem dla sędziów i referendarzy sądowych, w szczególności w pisaniu uzasadnień sądowych. AI może przygotować strukturę dokumentów, przeanalizować dowody, zaproponować treść podstawy prawnej, natomiast ostateczna odpowiedzialność za treść należy oczywiście do sędziego.

Prawnicy w badaniu Wolters Kluwer jako główne wyzwania w stosowaniu GenAI wymieniają trudności z jej integracją do codziennej pracy, wiarygodność wyników oraz obawy co do poufności danych.

– Nie powinniśmy do końca ufać sztucznej inteligencji, która jest swego rodzaju black boxem. Nie wiemy tak naprawdę, co się do końca dzieje w tym magicznym pudełku i dlaczego uzyskujemy taki wynik, a nie inny. Z pomocą przychodzi nam AI Act, który został wdrożony w 2024 roku i w tej chwili jest implementowany etapami – mówi Sebastian Szczepański. – Systemy sądowe zostały zaklasyfikowane jako aplikacje informatyczne wysokiego ryzyka, co oznacza, że muszą być przejrzyste i używane pod nadzorem człowieka.

Według unijnego rozporządzenia AI Act systemy sztucznej inteligencji wysokiego ryzyka podlegają rygorystycznym obowiązkom przed wprowadzeniem ich do obrotu. Wymagają m.in. systemów oceny i ograniczenia ryzyka, wysokiej jakości zbiorów danych, odpowiednich środków nadzoru ze strony człowieka czy też wysokiego poziomu solidności, cyberbezpieczeństwa i dokładności. Zgodnie z treścią rozporządzenia wykorzystanie narzędzi AI może wspierać uprawnienia decyzyjne sędziów lub niezależność sądownictwa, ale nie powinno ich zastępować. Podejmowanie ostatecznej decyzji musi pozostać działaniem kierowanym przez człowieka.

A to już wiesz?  Firmy w coraz większym stopniu dbają o dobre samopoczucie pracowników. Sposobem na jego poprawę może być ustanowienie dnia przyjemności w pracy

Kwalifikacja systemów AI jako systemów wysokiego ryzyka nie powinna jednak obejmować systemów przeznaczonych do pomocniczych czynności administracyjnych, które nie mają wpływu na faktyczne sprawowanie wymiaru sprawiedliwości. Mowa m.in. o anonimizacji lub pseudonimizacji orzeczeń sądowych, dokumentów lub danych, komunikacji między członkami personelu czy też zadaniach administracyjnych.

2 sierpnia br. zaczęły obowiązywać zapisy AI Act dotyczące wprowadzania na rynek modeli ogólnego przeznaczenia (GPAI) – to modele projektowane nie do jednego, konkretnego zastosowania, ale do wielu różnych zadań (to np. duże modele językowe czy tworzące grafiki). Każdy podmiot, który opracowuje i wprowadza do obrotu takie modele, ma obowiązek m.in. przygotowania i udostępnienia ich dokumentacji technicznej, publikacji streszczenia zbiorów danych wykorzystanych do ich trenowania czy wdrożenia środków zapewniających zgodność modeli z prawem. Dostawcy GPAI o systemowym ryzyku mają jeszcze bardziej rygorystyczne zadania, obejmujące m.in. testy bezpieczeństwa.

Artykuly o tym samym temacie, podobne tematy