12.03.2026
Nieoceniony profesor Tadeusiewicz przypomniał mi, że wiele już lat temu kolejne programy komputerowe wykazywały swą wyższość nad inteligencją człowieka pokonując go w grze w szachy a potem, w jeszcze bardziej wymagającej grze w Go – taką super skomplikowaną grę, w którą grają ludzie Wschodu.
Od tego czasu gdy AI pokonała mistrzów świata w te gry minęło już wiele lat i nadal nic, nie ma żadnego przełożenia na procesy decyzyjne, które nadal podejmują jacyś ludzie, mający swoje słabości a nawet zaburzeni emocjonalnie i umysłowo – patrz niektórzy prezydenci wybrani na te stanowiska głosami elektoratu, a które to decyzje ważą na losach świata i zagrażają życiu wielu milionów ludzi.
Stawiam prostą tezę – czas najwyższy przejść od spektakularnych wydarzeń jakim były te mecze – mistrz świata Kasparow i program komputerowy, który go pokonał w meczu szachowym czy późniejszy mecz w grę Go wygrany przez koleiny program i przejść do konkretu.
Czas na zastąpienie człowieka, jego inteligencji i wiedzy, wiedzą i inteligencją AI.
Żeby nie przestraszyć opinii publicznej może trzeba zacząć od rzeczy i spraw prostych. Pierwszym takim przykładem, jaki mi przychodzi do głowy, jest temat rozstrzygnięć sądowych w sprawach cywilnych, na przykład sprawach związanych z prawem pracy, tam gdzie liczba tych spraw jakie toczą się w polskich sądach jest olbrzymia, a czas oczekiwania na prawomocny wyrok to lata, a nie miesiące. W sprawach pracowniczych, o zasadność zwolnienia, o zatrudnianiu na tak zwanych śmieciówkach a nie na etacie – bo tak wygodniej dla pracodawcy – sądy mierzą się nie tyle ze stopniem skomplikowania materiału, co z ich ilością. Procesy są cyrkiem, w którym wynajęci adwokaci, opłacani przez biznes, stają na głowie, by udowodnić, że czarne jest białe, a białe jest czarne. Proces trwa latami, a jest do rozstrzygnięcia na jednej rozprawie – wystarczy, by materiał przeanalizował program AI i na zimno, bez emocji wydał wyrok.
Skończy się ten cyrk, za który płacimy wszyscy, zmniejszy się obciążenie sądów, tych będących najbliżej ludzkich spraw, wyroki będą szybkie i bezdyskusyjne, jako że sprawy są oczywiste. Trzeba tylko wyciągnąć logiczne wnioski z tego, co się stało.
Żeby nie było za prosto – mój wniosek o powierzenie rozstrzygnięć spraw sądowych dotyczy tych prostych spraw, takich, w których zapisy prawa mogą i powinny byś stosowane wprost, gdzie mamy jasność w tym co prawodawca zapisał a tym, co wyrabiają opłacani przez zainteresowaną stronę adwokaci. Jest wiele innych, w których nie jest to tak proste i tam niech młyny sprawiedliwości nadal mielą, byle szybciej, by nie było tak, że wyrok zapada po wielu latach, gdy mało kto już pamięta o co chodziło w sprawie – wyrok po dziesięciu latach dotyka już innych ludzi, ludzi starszych o te lata procesu, procesu który często jest taką samą traumą, jak sama sprawa.
I jeszcze jedno – powierzenie wyrokowania w sprawach sądowych AI stawia raz jeszcze pytanie o to, kiedy doczekamy się takiej AI, która nie będzie narzędziem, a samo-myślącym, samo-programującym się algorytmem. To jak dotąd podstawowy problem, istniejące i coraz doskonalsze programy są tylko narzędziem, rzeczą będącą własnością jakiegoś oligarchy zarabiającego na tym kolejne miliardy dolarów. Tak długo, jak tak będzie, tak długo, jak celem kolejnego programu AI będzie zarabianie dla właściciela miliardów, taka AI będzie zagrożeniem dla ludzi i świata. Opowieści o tym jakoby w jakieś grze strategicznej, w której brały udział programy AI i to one zdecydowały o użyciu broni nuklearnej w walce z jakimś przeciwnikiem, są tylko opowieścią. Jak dotąd to człowiek zdecydował o użyciu broni atomowej w Hiroszimie i Nagasaki, a czy teraz też tego nie użyje tego nikt nie wie – wystarczy popatrzeć na wojnę w Iranie.
Programy AI jako narzędzia do zarabiania wielkich pieniędzy to programy, które tworzą ludzie dla jakiegoś właściciela, Muska i innych. To czysta patologia, patologia, która zniszczy nas i świat.
Podsumowując – trzeba zbudować program AI, który zgromadzi całą wiedzę dotyczącą tych spraw pochodnych od prawa pracy i zastąpić sądy ludzi realizowane przez sędziów, ławników, adwokatów i innych urzędników takim programem. Zbudowanie go nie będzie trudne i powinno zrobić to Państwo Polskie

Zbigniew Szczypiński
Polski socjolog i polityk. Założyciel i wieloletni prezes Stowarzyszenia Strażników Pamięci Stoczni Gdańskiej.

„wiele już lat temu kolejne programy komputerowe wykazywały swą wyższość nad inteligencją człowieka pokonując go w grze w szachy a potem, w jeszcze bardziej wymagającej grze w Go”
Nie tak wiele lat temu. W przypadku Go było to w październiku 2015. (W przypadku szachów w 1997; jak ten czas leci…)
https://en.wikipedia.org/wiki/Go_(game)
https://en.wikipedia.org/wiki/Deep_Blue_versus_Garry_Kasparov
Dzień dobry,
pozwolę sobie na kilka słów komentarza. Lubię czytać felietony Pan Zbigniewa, jednak ten ostatni, „Czas na AI” wzbudził we mnie mieszane uczucia.
Jestem stosunkowo świeżo po lekturze wybranych dzieł Stanisława Lema, a wspomnę tu o „Śledztwie” oraz „Pokoju na Ziemi”, a także o „Rozprawie” (znanej też jako film pod tytułem „Test pilota Pirxa”). We wszystkich tych dziełach mamy do czynienia z konfliktem pomiędzy inteligentnymi maszynami a człowiekiem.
Moje rozumienie tych powieści w kontekście coraz bardziej otaczającej nas AI pozwala na wysunięcie następujących wniosków:
1. AI nigdy nie będzie „mądrzejsza” od człowieka. Modele AI zostały nakarmione ogólnie dostępną wiedzą, powiedziałbym raczej, że AI jest wielką encyklopedią wszelakiej informacji, tak wielką, że człowiek nie jest w stanie samodzielnie w pojedynkę jej ogarnąć. Ale to nie ma nic wspólnego z mądrością.
2. Jednocześnie AI jest zaprogramowana zgodnie z cechami ludzi ją tworzących. W AI ukryte są zatem wszelkie kompleksy, uprzedzenia, a nawet fobie – często w sposób nieświadomy.. Więc o obiektywności nie może być mowy.
3. Istnieje naturalna konkurencja między twórcami AI: jeśli ja nie wprowadzę jakiejś nowej funkcji do modelu, to zrobi to inna firma. Przypadek Groka z „rozbieranymi zdjęciami” oraz konflikt dostawców AI z Ministerstwem Obrony USA dowodzą słuszności tej tezy.
4. AI jest tylko maszyną, oczywiście nie mechaniczną, lecz elektroniczną i bardzo skomplikowaną, ale jednak tylko maszyną. Maszyna nie ma empatii, nie ma tzw. doświadczenia życiowego. To, że w dialogu z użytkownikiem wydaje się czasem „ludzka”, to tylko miraż – zewnętrzne objawy, lecz nie prawdziwe przeżycia.
Wyposażony w powyższe wnioski pozwalam sobie na polemikę ze zdaniem Pana Zbigniewa Szczypińskiego: „Czas na zastąpienie człowieka, jego inteligencji i wiedzy, wiedzą i inteligencją AI.”
Ci prawda, Pan Zbigniew ograniczył się w tym felietonie do obszaru sądowego rozstrzygania przez AI spraw cywilnych, a w szczególności z prawa pracy, ale problem wydaje się szerszy.
Swój wywód Pan Zbigniew konkluduje zdaniem: „wystarczy, by materiał przeanalizował program AI i na zimno, bez emocji wydał wyrok.”, zabezpieczając się co prawda zastrzeżeniem: „(…) dotyczy tych prostych spraw, takich, w których zapisy prawa mogą i powinny byś stosowane wprost, gdzie mamy jasność w tym co prawodawca zapisał (…)”.
To, na co zwróciłem uwagę to stwierdzenie o „prostych sprawach”. I tu logika się zapętla, bo któż będzie rozstrzygał, co to znaczy – w sensie procesu sądowego – „prosta sprawa”? Przecież nie będzie tego dokonywać AI, gdyż tym sposobem wcześniej czy później AI obejmie w swoje władztwo wszystkie sprawy, bo uzna z czasem, że każda sprawa jest „prosta”.
Zatem, aby zachować poczucie kontroli, rozstrzyganie, czym jest „prosta” sprawa należałoby powierzyć człowiekowi. Kim byłby ten człowiek? Sędzią? Nie wiem, choć to narzucająca się odpowiedź. Poza tym, czy stwierdzenie, że jakaś sprawa jest „prosta” podlegałoby zaskarżeniu? Kto miałby wnosić sprzeciw w tej sprawie? I do kogo?
Dygresja pierwsza: Skoro człowiek rozstrzygałby, czy dana sprawa jest „prosta”, czy nie, to może ten sam człowiek zbadałby ją i wydał wyrok? Ale wtedy AI nie byłoby przecież potrzebne.
Ale przypuśćmy, że dana sprawa pracownicza została uznana jako „prosta” i skierowana do oceny przez AI.
I tu się potykamy o kolejny problem. Pan Zbigniew postuluje, aby „program AI na zimno i bez emocji wydał wyrok”. Czy uważa Pan, że taki wyrok byłby wyrokiem sprawiedliwym, nawet jeśli strony zgodziłyby się co do sentencji?
Kodeks postępowania cywilnego w artykule 324, par. 1 wyraźnie stwierdza, że wyrok zostaje wydany po dyskusji w gronie sędziów. Sędziowie są ludźmi, mają swoje doświadczenie w podobnych sprawach, każdy z nich może wnieść w czasie dyskusji swój punkt widzenia. Jak ma to zrobić AI? Oczywiście, możemy sobie wyobrazić, że AI zgromadziła w swoich trzewiach wszystkie wyroki we wszystkich sprawach cywilnych. Ale tylko wyroki. Przebiegi dyskusji w gronach sędziowskich, o ile są w ogóle protokołowane, chyba nie są publikowane, więc AI do nich dostępu nie ma. W efekcie AI „dobierze” sobie wyrok z najbardziej pasującej sprawy. Ale czy na tym ma polegać osądzenie? Przecież osądzenie jest wyrażeniem opinii wobec konkretnej sprawy i wobec stron, a nie wynikiem działania algorytmu.
Dygresja druga: A gdyby tak pociągnąć myśl Pana Zbigniewa dalej i wyobrazić sobie „sądomat”, czyli taki aparat, do którego wrzucilibyśmy wszystkie informacje w naszej sprawie, a po kilku minutach dostalibyśmy wydrukowany werdykt. Ale – szczerze mówiąc – zimno mi się robi na taką myśl.
Na zakończenie, podsumowując te przydługie rozważania, uważam, że z postulatu Pana Zbigniewa, aby AI rozstrzygał proste sprawy z prawa pracy, płyną dwie konkluzje – idące w kompletnie przeciwne strony.
Konkluzja pierwsza: postulat jest co prawda atrakcyjny, ale jest mirażem, gdyż AI nigdy nie będzie człowiekiem-sędzią (nawet gdy zostanie stworzony model niekomercyjny) i taki wyrok nie byłby wyrokiem sprawiedliwym, nawet, gdyby strony zgodziły się co do sentencji.
Konkluzja druga: Gdybyśmy jednak zgodzili się na rozstrzyganie prostych spraw z prawa pracy przez AI, to otwiera się furtka do przejęcia przez AI wszystkich spraw, także karnych i – kto wie – może także administracyjnych? Nie chciałbym żyć w społeczeństwie, w którym o moich sprawach, czy nawet życiu rozstrzygała by maszyna.
Łączę wyrazy szacunku..
To wszystko prawda, AI zamiast sedziów rozstrzygających sprawy wynikające z zatrudnienia w Sądzie Pracy to tylko przyspieszenie. Mogą być błędy ale ich ilość będzie znikoma w stosunku do tego co jest teraz. Nikt nie jest doskonały, AI też.
Felieton pana Zbigniewa Szczypińskiego zaczyna się od wspomnienia o historycznych momentach triumfu sztucznej inteligencji nad człowiekiem: najpierw szachy, potem Go. Komputery pokonały mistrzów świata i – jak można się domyślić – z tego faktu autor wyciąga wniosek, że czas najwyższy, aby AI zaczęła zastępować ludzi w podejmowaniu decyzji.
To dość popularna dziś linia rozumowania. Jeśli komputer wygrał z człowiekiem w szachy, to znaczy, że jest od niego mądrzejszy. W tym miejscu zawsze mam pokusę przypomnieć, że kalkulator również wygrywa z nami w liczeniu pierwiastków, a jednak nikt nie proponuje powierzyć mu prowadzenia polityki gospodarczej państwa.
Program, który pokonał mistrza świata, jest genialny – ale w jednej bardzo konkretnej dziedzinie. Szachy mają skończony zestaw reguł, jasno określony cel i żadnych świadków, którzy nagle zmienią zeznania.
Prawo natomiast przypomina raczej długą, wielowątkową powieść, w której połowa bohaterów coś ukrywa, a druga połowa nie bardzo pamięta, co wydarzyło się trzy lata wcześniej.
Autor felietonu proponuje więc pierwszy krok ku algorytmicznej przyszłości: oddać AI rozstrzyganie prostych spraw sądowych, szczególnie tych z zakresu prawa pracy. Argument jest prosty – spraw jest mnóstwo, ciągną się latami, a prawnicy zamieniają proces w cyrk.
Trzeba przyznać, że diagnoza częściowo trafia w sedno. Polskie sądy rzeczywiście toną w sprawach, a czas oczekiwania na wyrok bywa absurdalnie długi. Problem w tym, że z faktu, iż system działa powoli, nie wynika automatycznie, że rozwiązaniem jest zastąpienie sędziów algorytmem.
Felieton zakłada bowiem coś, co w praktyce rzadko się zdarza: że te sprawy są naprawdę „oczywiste”. Tymczasem prawo pracy pełne jest niuansów. Jedna strona twierdzi, że doszło do bezprawnego zwolnienia, druga że była to konieczność organizacyjna. W aktach pojawiają się dokumenty, zeznania świadków, różne interpretacje przepisów. Nagle okazuje się, że „oczywistość” zaczyna się rozmywać.
Sztuczna inteligencja może w takich sytuacjach bardzo pomóc – analizować dokumenty, wyszukiwać podobne wyroki, wskazywać wzorce w orzecznictwie. To ogromna wartość. Ale wydanie wyroku to nie tylko analiza danych. To także odpowiedzialność i zaufanie społeczne. Wyrok wydany przez człowieka można zakwestionować, zaskarżyć, poddać ocenie innych ludzi.
Z wyrokiem algorytmu sprawa staje się bardziej kłopotliwa. Bo jeśli program się pomyli, to właściwie kto ponosi odpowiedzialność? Programista? Państwo? A może serwer, na którym działa system?
Felieton zawiera jeszcze jeden ciekawy paradoks. Autor ostrzega przed sztuczną inteligencją kontrolowaną przez miliarderów – Muska i innych właścicieli technologicznych imperiów. To obawa w pełni zrozumiała. Ale rozwiązaniem ma być stworzenie jednej wielkiej państwowej AI, która przejmie część wymiaru sprawiedliwości.
W praktyce oznaczałoby to stworzenie największego monopolu algorytmicznego, jaki można sobie wyobrazić.
W całym tym rozumowaniu kryje się jednak intuicja, której nie warto lekceważyć. AI rzeczywiście może pomóc państwu działać sprawniej. Może skrócić procedury, uporządkować dokumenty, wspierać sędziów w analizie ogromnych ilości danych.
Ale między wspomaganiem decyzji a zastąpieniem człowieka istnieje zasadnicza różnica.
Bo sąd to nie tylko mechanizm rozwiązywania sporów. To także instytucja zaufania publicznego. A zaufanie – jak na razie – jest kategorią, której nie da się łatwo zaprogramować.
Choć trzeba przyznać jedno: gdyby algorytmy naprawdę miały zastąpić ludzi w podejmowaniu decyzji publicznych, pierwszym miejscem do eksperymentu nie powinny być sądy.
Znacznie ciekawsze wyniki moglibyśmy uzyskać, testując je w polityce.
Pełna zgoda ale polityka to esencja praw obywatelskich. Propozycja zastąpienia ciał politycznych algorytmem to bardzo polityczna sprawa. Na to jeszcze przyjdzie poczekać