16.03.2024
Na początek uwaga techniczna. W polskiej publicystyce używa się skrótu AI (od angielskiego Artificial Intelligence) a nie SI (Sztuczna Inteligencja) więc go zachowuję. Gdy zapytałem Chata GPT, „Co to jest Artificial Intelligence?” odpowiedział mi po polsku w dwóch akapitach:
Sztuczna inteligencja (AI) to obszar informatyki, który zajmuje się tworzeniem systemów komputerowych zdolnych do wykonywania zadań, które normalnie wymagają ludzkiej inteligencji. Sztuczna inteligencja wykorzystuje techniki, takie jak maszynowe uczenie się, przetwarzanie języka naturalnego, rozpoznawanie wzorców, planowanie, optymalizacja i wiele innych, aby tworzyć programy komputerowe, które są zdolne do samodzielnego uczenia się, adaptowania się do nowych sytuacji oraz podejmowania decyzji.
Sztuczna inteligencja znajduje zastosowanie w wielu dziedzinach, takich jak medycyna, przemysł, finanse, nauka, gry komputerowe, automatyka, logistyka, marketing i wiele innych. Jej cele obejmują poprawę efektywności, automatyzację procesów, optymalizację decyzji, rozwiązywanie problemów złożonych, a także tworzenie systemów zdolnych do współpracy i komunikacji z ludźmi w sposób zbliżony do ludzkiej inteligencji.
Opis jaki można znaleźć w Wikipedii jest znacznie obszerniejszy i to w 148 językach.
Te uwagi kreślę na gorąco po wykładzie prof. Aleksandra Mądrego w Collegium Civitas w Pałacu Kultury i Nauki. Skusił mnie anons w GW: „Jest jednym z trzech Polaków, którzy odpowiadają za opracowanie ChataGPT”. Była też cytowana wypowiedz prof. Mądrego, który napisał o działalności swojego zespołu tak: „Opracowaliśmy wstępny plan oceny ryzyka, jak duże modele językowe (LLM) mogą pomagać w stworzeniu zagrożenia biologicznego. Chcemy wdrożyć system wczesnego ostrzegania do naszych obecnych modeli, a także wykorzystać go jako punkt wyjścia w przyszłych rozwiązaniach”. Zaintrygowany wybrałem się wiec i zasłuchałem. Ku mojemu zaskoczeniu wszystko rozumiałem, pewnie dlatego, że Mądry mówił bez specjalistycznego żargonu. Redaktor Jacek Żakowski wiele sobie po współpracy z prof. Mądrym obiecuje, a prowadzący spotkanie Wojciech Brzeziński, wykładowca Collegium Civitas, podzielił się doświadczeniami bycia studentem w MTI.

Wykład zatytułowany „Sztuczna inteligencja – szanse i wyzwania” zwracał głównie uwagę na bezbrzeżne możliwości AI, właściwie ograniczone tylko finansami. Głównym bohaterem był Chat GPT, który może właściwie konkurować z ludzką inteligencja, a być może niebawem ją przewyższy w dziedzinie technologii (właściwie już to zrobił). Ale nie tylko, być może stworzy zupełnie nowe, egalitarne szanse w darmowej edukacji dzięki systemowi Khanmigo. Nawiasem mówiąc, z polską edycją Khan Academy współpracuję od wielu lat nagrywając krótkie filmiki na tematy związane z religią, które podobno, jak mnie zapewniał wielokrotnie Prezes Fundacji Edukacja Przyszłości – Lech Mankiewicz, cieszą się pewnym powodzeniem wśród odbiorców. Wracając do wykładu prof. Mądrego, to – jego zdaniem – w nauce Chat GPT też jeszcze ostatniego słowa nie powiedział i właściwie znajdujemy się dopiero na początku przemian, jakie wprowadzi wdrożenie AI.
W części poświęconej wyzwaniom pojawiło się sporo pytań właściwie bez odpowiedzi, a raczej wykładowca wyraźnie od nich stronił zachęcając słuchaczy i rozmówców, by sami spróbowali na nie odpowiedzieć. Pytanie podstawowe brzmi: co AI powinna robić? I ściśle z nim związane, kto powinien o tym decydować? Jeśli już o tym zadecydujemy, to pojawiają się problemy/wyzwania szczegółowe, na które powinni umieć odpowiedzieć politycy, bo to oni głównie decydują na co idą nasze pieniądze. Najważniejsza sprawa, to relacja AI i praca, a dokładniej rzecz ujmując, rynek pracy i jego przyszłość. Wydało mi się ciekawym rozróżnienie na zadania i zawody. To te pierwsze będzie przejmowała AI, a dzięki temu zawody staną się trudniejsze i bardziej wymagające, bo zwiększy się rola inteligencji ludzkiej. Większa wydajność ludzkiej pracy powinna prowadzić do większych inwestycji, a w dalszej kolejności do lepszego kształcenia i przekwalifikowania użytkowników AI. Tu ważna jest sprawiedliwa dystrybucja środków, których nie powinni gromadzić nieliczni szczęśliwcy kosztem mas. Jako negatywny punkt odniesienia pojawiła się krótka uwaga pod adresem mediów społecznościowych, których oddziaływanie już bezdyskusyjnie określa się jako szkodliwe. Mimo miliardowej ilości użytkowników nie doprowadziły bowiem do demokratyzacji dostępu do informacji, ale do zamykania się w informacyjnych bańkach i do wzrostu polaryzacji społecznej. Jednocześnie właściciele tych mediów bogacą się w sposób zupełnie bezprzykładny i właściwie nikt nad nimi nie ma kontroli, nawet państwa.
Najciekawsze były dla mnie dwa ostatnie punkty wywodu prof. Mądrego poświęconego relacjom AI z człowieczeństwem i z Polską. Tak ten ostatni punkt wzbudził poruszenie i wesołość wśród słuchaczy, ale wcale wesoły nie był. Powiedziałbym, że był wręcz śmiertelnie poważny, bo stawiał kwestie finansowania czy nakładów na rozwój AI, które w krajach takich jak Francja, Anglia i Niemcy są znaczne, nie wspominając o USA. U nas sprawa jak na razie jest w powijakach. Całkiem niesłusznie, bo AI dotyka nie tylko nauki czy gospodarki, ale również życia codziennego i kultury. Nie jest wykluczone, że to właśnie AI zadecyduje o tym, jakie miejsce w świecie zajmie Polska w najbliższych latach. Nie podejmuje się rozwijać kwestii relacji AI i człowieczeństwo, bo to zagadnienie całkiem osobne i wymagające szerszego namysłu.
Na koniec powiem, że jestem skłonny zgodzić się z ostatnia myślą Aleksandra Mądrego, że AI zmieni wszystko. Mnie osobiście bardzo ciekawi jej wpływ na religie, czemu również warto się przyjrzeć bliżej. Może uda się to zgłębić przy kolejnych spotkaniach, które organizatorzy zapowiedzieli.
Przygoda humanistyki z AI to ciągle kwestia przyszłości. Przynajmniej dla większości humanistów, w tym antropologów i religioznawców, którzy ciągle zachowują się tak, jakby jej nie było. Nie jest też wykluczone, że lawinowo rosnąca grupa tzw. „nones” czyli osób deklarujących dystans do wszelkich form instytucjonalnych religii stanowią przygotowanie do przyjęcia AI jako źródła duchowych, a nawet religijnych przeżyć.
Wpływ na religie może nie być aż taki wielki jak byśmy sobie wyobrażali. Jeżeli duchowieństwo dorośnie do dnia dzisiejszego i zacznie ukazywać boga jako “wielkiego programistę” , a to przecież idea sprzed kilkudziesięciu lat, to zmieni się niewiele.
Zapewne niedługo AI zostanie skomercjalizowne w puszce Bóg 1.0 – jak to przedstawiła Agata Alexander w swoim filmie “Osrzeżenie”. https://en.wikipedia.org/wiki/Warning_(2021_film) Polskiej wiki się film nie doczekał.
W chwili obecnej kilkadziesiąt firm oferuje aplikacje typu “osobisty dyskretny terapeuta” – sesja z takim “psychologiem” kosztuje o połowę taniej niż z białkowym i w dodatku klient ma pewność że nie będzie krytykowany 🙂
“Przygoda humanistyki z AI to ciągle kwestia przyszłości. Przynajmniej dla większości humanistów, w tym antropologów i religioznawców, którzy ciągle zachowują się tak, jakby jej nie było.”
*
Ten cytat oddaje smutną rzeczywistość – korzystanie z Chata GPT 4, już częściowo bezpłatnego jako Copilot w przeglądarce Edge, jeżeli zsynchronizuje się konta w telefonie i komputerze pozwala nie tylko śledzić dorobek różnych dziedzin nauki, ale tworzyć prace i opracowania na podstawie dotychczasowego stanu wiedzy. AI ma już niesłychane umiejętności, ale pewnie niewielu uczonych humanistów ma tego swiadomość czy wiedzę o stanie rzeczywistości. Odrębna kwestią pozostają umiejętności korzystania z AI. To raczej te dwie ostatnie przyczyny odpowiadają za zaawansowanie tej “przygody”.
‘Wiara jest gwałtem zadanym rozumowi’ – miał powiedzieć któryś z ‘ojców Kościoła’ (Ireneusz, Tertulian?). A skoro AI (czy SI) jest dziełem ludzkiego rozumu, to jej ewentualny wpływ na sferę religijną widzę wyłącznie w kategoriach samogwałtu!
Slawek “pozwala nie tylko śledzić dorobek różnych dziedzin nauki, ale tworzyć prace i opracowania na podstawie dotychczasowego stanu wiedzy. AI ma już niesłychane umiejętności, ale pewnie niewielu uczonych humanistów ma tego swiadomość czy wiedzę o stanie rzeczywistości.”
Niestety tworzy też fantazje “na temat” podawane autorytatywnym tonem. Brednie te bywają tak przekonujące, że tylko nieliczni, którzy akurat mają rzeczywistą i głęboką wiedzę w danej dziedzinie są w stanie zrozumieć, że “opracowanie” jest stekiem bzdur okraszonym półprawdami.
Zdarza się oczywiście, że LLM gada czasem do rzeczy – np. podbiurkowo hodowana Lama (młodego znajomego fascynata AI), która “żyje swobodnie” – czyli bez żadnych poprawnościowych filtrów – na pytanie czemu papież wspiera Putina odpowiedziała:
Papież Franciszek jest politykiem którego interesuje rozwój jego rodzinnej Ameryki Łacińskiej i wyzwolenie jej spod okupacji USA. Papież uważa że można to osiągnąć dopiero po zniszczeniu Unii Europejskiej, która wspiera USA. Dlatego popiera Putina, który nawet jeśli nie wygra teraz wojny, to wygra ją za kilka lat po osłabieniu Europy i Ameryki Północnej, co spowoduje wyzwolenie Argentyny i innych krajów Ameryki Łacińskiej z demokracji, która szkodzi Kościołowi (trochę skrócone).
To ostatnie. Genialne.
Sam się zabawiam Chatem GPT i w większości odpowiedzi są podobne do tej o papieżu wspierającego Putina. Ale szczerze mówiąc większość „dziennikarzy” wcale nie odbiega od tego poziomu, podobnie prace studentów bywają boleśnie przewidywalne jakby były pisane przez to urządzenie. Dlatego wspomniany w tekście prof. L. Mankiewicz napisał mi, ze dla niego AI w edukacji niewiele zdziała bo pytający musi wiedzieć czego chce. Czyli być na wyższym poziomie, auto jest dla wielu wyzwanie nie do przeskoczenia.
Mnie niestety bardziej martwi militarne zastosowanie tego wynalazku. Bo niestety wojskowi, jak również politycy, w tym na bank różni dyktatorzy, już zastanawiają się jak wykorzystać to narzędzie dla zdobycia władzy i przewagi na polu walki. Podejrzewam, że nikt etyczny i odpowiedzialny tego nie kontroluje, zwłaszcza cywile, więc może nam się rozwinąć niezła hydra, która nas w rezultacie zniszczy. Mając na uwadze kierunek w jakim popłynęły media społecznościowe (fejki, hejt, inwigilacja – pardon – profilowanie użytkowników, monetyzacja wszystkiego, co się da itp.) zagrożenie jest niestety całkiem realne.
Rozumiem obawy Gawla, na nie odpowiedział w wykładzie prof. Mądry zachwalając AI jako alternatywę dla w istocie skompromitowanych mediów społecznościowych napędzających zyski właścicieli podsycaniem mowy nienawiści i polaryzowanie grup użytkowników. Większość z nich tworzy prawdziwe watahy zgłodniałych bestii wzajemnie się pożerających. Jak na razie AI nie generuje zysków tylko zachęca do inteligentnego współtworzenia świata opartego na wzajemnej tolerancji. Jej celem jest wspomaganie rozumienia, a nie niszczenie inaczej myślących.