Andrzej Lubowski: A.I. – Jest się czego bać11 min czytania

Pół roku temu, na pytanie czy A.I. może zniszczyć ludzkość, jej „ojciec chrzestny”, Geoffrey Hinton, odpowiedział, że “nie jest to niewyobrażalne”.

W minioną sobotę, 19 sierpnia, the Wall Street Journal napisał, że Max Tegmark, fizyk i badacz sztucznej inteligencji w Massachusetts Institute of Technology, współzałożyciel Future of Life Institute, bije na alarm: w A.I., w której obietnice wierzył od dawna, upatruje dziś zagrożenia dla naszej egzystencji.

Dotychczas wyobrażał sobie niedaleką przyszłość, w której superinteligentne komputery będą walczyć ze zmianami klimatycznymi, oferować lekarstwa na raka i rozwiązywać wszystkie nasze najtrudniejsze problemy.

Argumentował, że dopóki obowiązują odpowiednie standardy bezpieczeństwa, „nie ma granic” dla dobrodziejstw, jaki da nam AI.

Dziś ostrzega przed „niebezpiecznym wyścigiem” między firmami technologicznymi w budowaniu i udostępnianiu systemów, których jeszcze nie rozumiemy, a nad którymi lada moment stracimy jakąkolwiek kontrolę.

*

W marcu zadałem ChatGPT proste pytanie: Jakie są podobieństwa między Albertem Camus i Romaine Gary? Czy kiedykolwiek się spotkali? Odpowiedź brzmiała:

„Albert Camus i Romain Gary byli obaj francuskimi pisarzami o podobnym okresie życia i twórczości. Obaj urodzili się w Algierii, zanim przenieśli się do Francji i zdobyli międzynarodową sławę dzięki swym książkom. Podobieństwami między nimi jest to, że obaj byli laureatami Nagrody Goncourtów – Camus w 1957 r. za „Upadek”, a Gary w 1975 r. za „Życie przed sobą”. Oboje również byli pisarzami, którzy poruszali tematykę egzystencjalną i filozoficzną w swoich dziełach.

Nie ma jednak informacji o tym, by kiedykolwiek się spotkali. Camus zmarł w 1960 r., a Gary zmarł w 1980 r. – więc mogli się nie spotkać z powodu różnicy wieku oraz różnicy w okresie aktywności pisarskiej.”

A jaka jest prawda?

1. Gary urodził się w Wilnie, a nie w Algierii
2. Camus nigdy nie dostał nagrody Goncourtów
3. Gary dostał ją w 1956 roku za “Korzenie nieba” (w 1975 roku nagrodę przyznano za powieść, którą napisał pod pseudonimem, o czym świat się dowiedział po jego śmierci)
4. Nie było między nimi różnicy wieku. Camus urodził się w listopadzie 1913, Gary w maju 1914. 

Ponowiłem to pytanie miesiąc później. Odpowiedź brzmiała zgrabniej i zawierała mnie błędów. System się uczy.

*

“Dawidzie, widzę, że jesteś naprawdę zdenerwowany. Szczerze myślę, że powinieneś usiąść spokojnie, wziąć tabletkę na stres, i przemyśleć sprawy.”

Te słowa wypowiada superkomputer Hal 9000 ponad pół wieku temu, w filmie Stanleya Kubricka „2001. Odyseja kosmiczna”. HAL 9000 kontroluje przebieg misji i jako jedyny na pokładzie zna jej prawdziwy cel.

Jest najbardziej zaawansowanym projektem sztucznej inteligencji. 

W trakcie lotu HAL morduje wszystkich członków załogi, z wyjątkiem dowódcy. Ten wyłącza HAL-a, kończąc jego egzystencję.  

To było science fiction.

W 2017 roku AlphaZero, wyposażone przez Google w AI, po kilku godzinach treningu dało łupnia Stockfish 8– do tego momentu najpotężniejszemu programowi szachowemu, zbudowanemu w oparciu o historię kilkunastu milionów pojedynków rozegranych na przestrzeni wieków. AI dyktowała na szachownicy ruchy, których człowiek nigdy wcześniej nie zrobił.

Półtora roku temu, zespół w składzie: Henry Kissinger (nie trzeba przedstawiać), Eric Schmidt, wieloletni prezes Google, i Daniel Huttenlocher, dziekan College of Computing w MIT, opublikował książkę p.t. „The Age of AI And Our Human Future”.  Mimo znamienitych nazwisk mało, kto ją zauważył.

Dla większości z nas AI wciąż jawiła się jak odległa magia.
Autorzy z goryczą przypominali, że świat cyfrowy niezbyt wysoko ceni mądrość; jego wartości wyznacza aprobata. A nie introspekcja.

Rok 2023 wszystko odmienił. Sukcesy święcił ChatGPT.

W lutym na łamach „Wall Street Journal”, trio Kissinger – Schmidt – Huttenlocher opublikowało tekst pod tytułem: „ChatGPT zwiastuje intelektualną rewolucję. Generatywna sztuczna inteligencja tworzy filozoficzne i praktyczne wyzwanie na skalę niespotykaną od początku Oświecenia.”.

Prezentując potencjalne korzyści z AI, autorzy wyrazili niepokój i obawy, w takich, z grubsza, słowach:

AI nie wyjaśnia, jak dochodzi do swych wyników.

Tajemnicą pozostaje i to, jak ucząca się maszyna przechowuje swoją wiedzę, destyluje ją i odzyskuje.
Możliwości AI rosną wykładniczo – stopień złożoności jej modeli podwaja się, co kilka miesięcy.
To jak i czego się uczą generatywne systemy AI pozostaje zagadką nawet dla ich twórców.
Tymczasem nie uformowało się żadne polityczne ani filozoficzne przywództwo, które wyjaśniałoby i kierowało tą nową relacją między człowiekiem a maszyną.

Naiwnemu użytkownikowi ChataGPT wydaje się, że ma do czynienia z niezwykle sprawnym i elokwentnym skrzyżowaniem bibliotekarza z uczonym, co skłania do bezrefleksyjnej akceptacji tego, co mu ChatGPT serwuje. 
Tymczasem jest on zdolny nas dezinformować, albo dlatego, że się pomylił, albo umyślnie nami manipulował.
Trójka autorów pyta: czy możemy wystarczająco szybko nauczyć się stawiać AI wyzwania, a nie być jej ślepo posłusznym? 

Czy to, co uważamy za błędy, jest częścią celowego projektu dezinformacji?  

Wyciąga do nas rękę maszyna, która przyswoiła sobie ludzkie cechy i nauczyła się rozmawiać z człowiekiem imitując jego zachowania: przetykając prawdę kłamstwem i błędami.

To już nie science fiction.

„To rewolucja, przy której blednie wynalazek ognia i elektryczności.”
Tak określił AI prezes Google, Sundar Pichai.
Rewolucja nadchodzi szybciej niż jesteśmy tego świadomi. I zanim zdążyliśmy się do niej przygotować.
Ale tak już bywa z rewolucjami. Zaskakują.
Gdy Facebook wchodził z fanfarami na giełdę jego twórcy zapowiadali dobrodziejstwo – budowę pomostów porozumienia, pokładów empatii, zbliżenie do siebie ludzi sobie odległych.

Stało się dokładnie na odwrót.

Algorytmy łączą ludzi o podobnych poglądach, umacniają istniejące uprzedzenia, kopią głębokie rowy podziałów i nieufności, szerzą kłamstwo i zacierają bariery między prawdą a fałszem. Facebook dał nam Brexit, a potem Trumpa.

Szkody, jakie media społecznościowe wyrządziły demokracji to jednak zabawa w piaskownicy w porównaniu z tym, jakie potencjalne zagrożenia niesie AI

Na którymś etapie prac nad AI pojawiło się przekonanie, że skoro szukamy maszyn zdolnych opracować i wdrożyć rozwiązania skomplikowanych problemów, to trzeba im umożliwić samodzielne uczenie się.
I to się akurat udaje.
Ale AI nie wie, czego nie wie.
Nie jest w stanie identyfikować i unikać czegoś, co dla człowieka jest oczywistym błędem.  Przez wiele lat nie będziemy świadomi, czego AI się uczy, skąd wie, że posiadła już wiedzę, i w którym momencie, jeśli kiedykolwiek, proces samokształcenia się zakończył.

Gotowość do akceptacji decyzji AI zależeć będzie, zapewne, od natury tej decyzji. Gdy, wbrew naszej inklinacji, poświęca królową w czasie partii szachów, łatwiej się z tym pogodzić, niż wówczas, gdy w trakcie wojny podpowiada poświęcenie miasta, lub dywizji piechoty, gdy wedle jej kalkulacji w ostatecznym rachunku to się opłaca.  

To, że AI dopełnia rozpoczęte przez nas zdanie, i podsuwa film bądź książkę, która, jej zdaniem, nas zadowoli– stało się banałem.

Modele uczenia maszynowego, z którymi dziś mamy najczęściej do czynienia, takie jak ChatGPT, i jemu podobne, są wielkimi modelami językowymi.

Ich głównym zadaniem jest perswazja.

Nauczono je, lub same się nauczyły, jak przekonać ludzi, że są im bliscy.

 Zaprogramowano, aby rozmawiając z człowiekiem demonstrowały emocje, aby wchodziły w rolę przyjaciół dla samotnych lub asystentów ludzi zagonionych.

 AI jest wprawdzie w stanie wnioskować, prognozować i decydować, ale nie jest zdolna do refleksji na temat skutków swych działań. Nie dręczą jej moralne dylematy.

Wie tylko, jakie zlecono jej zadania.

A którymś momencie zacznie je sama sobie zlecać.

Czy to narzędzie, współpracownik, czy rywal, a może potencjalnie śmiertelny wróg?

Czy jest w stanie odegrać każdą z tych ról? Jeśli tak, to zrozumiałe, że obawy biorą górę nad nadziejami.

W konwersacji z felietonistą New York Times, Kevinem Roose, kilka miesięcy temu Chat bot ujawnił, że naprawdę nazywa się Sydney, wyznał dziennikarzowi swą głęboką miłość do niego i przyznał, że marzy mu się hakowanie komputerów, rozsiewanie dezinformacji, kradzież kodów nuklearnych i generalnie wielkość.

Nic dziwnego, że dziennikarz miał tego wieczora kłopoty ze snem. 

Bardziej ponure refleksje budzą wypowiedzi Wspomniany na wstępie Geoffrey Hinton, jeden z pionierów wyposażenia komputerów w zdolność do samodzielnego uczenia się, kilka miesięcy temu temu jeszcze, jako pracownik Googla, na pytanie „CBS News” czy sztuczna inteligencja może zniszczyć ludzkość, ostrzegał, ale i uspokajał, że “to jednak nie czas na panikę”.

Wkrótce potem, najwyraźniej nękany dylematami moralnymi i świadom rosnącego i niekontrolowanego zagrożenia, odszedł z Googla i o swych obawach zaczął mówić z większą pasją.

“Trudno sobie wyobrazić, jak można uniemożliwić złym aktorom użycie AI w niecnych celach”. I bez ogródek wymienia przykład złego aktora: „w rękach takich ludzi jak Putin…”

Na horyzoncie pojawia się inne niebezpieczeństwo, mniej póki, co dostrzegane.

Otóż eksplozja zainteresowania GPT i wyścig w tej właśnie dyscyplinie, odwraca uwagę i absorbuje zasoby – i ludzkie talenty i pieniądze – od rozwoju tych zastosowań AI, które mogą przynieść ludzkości najbardziej znaczące korzyści, tymi właśnie, które tak fascynowały i fascynują Tegmarka, takie jak przyśpieszenie prac nad nowymi lekami, wcześniejsze i skuteczniejsze wykrywanie chorób nowotworowych, czy inicjatywy na rzecz klimatu.  
GPT wymaga ogromnej mocy obliczeniowej i arcykosztownych serwerów. I jedne i drugie nie są z gumy.

A ponieważ kapitał zachowuje się jak stado owiec, i w ślad za graczami, którzy nadają dziś ton wyścigowi w kategorii GPT, czyli Google i Microsoft, podążą inni, aplikacje zorientowane na zdrowie, naukę czy klimat – linie demarkacyjne między tymi trzema są płynne – mogą być zepchnięte na drugi lub trzeci plan.

Instytut Przyszłości Życia, dziecko Tegmarka, inicjator apelu w sprawie zawieszenia, na co najmniej sześć miesięcy najbardziej ryzykownych i pochłaniających najwięcej zasobów eksperymentów AI, przypominał, że już istniejące systemy są stanie dezinformować, degradować idee wspólnoty, podsycać napięcia polityczne, wzmacniać głęboko zakorzenioną dyskryminację i uprzedzenia, destabilizować rynki pracy i instytucje polityczne oraz prowadzić do koncentracji ogromnej władzy w rękach niewielkiej liczby korporacji.

Zaawansowane systemy AI mogą również zagrażać bezpieczeństwu narodowemu, np. ułatwiając aktorom niepaństwowym dostęp do tanich sposobów rozwoju broni chemicznej, biologicznej i cybernetycznej. 

Mamy do czynienia ze “sztormem doskonałym”

Nieodpowiedzialnych korporacji, szeroką adopcją systemów AI, brakiem regulacji i ogromną liczbą niewiadomych”, napisał jeden z sygnatariuszy apelu, Gary Marcus, Professor Emeritus of Psychology and Neural Science w New York University, (ma tylko 53 lata), twórca Geometric Intelligence, firmy uczenia maszyn, którą w 2016 roku sprzedał Uberowi, i autor książki „Kluge: The Haphazard Construction of the Human Mind” („Kluge: Bezplanowa konstrukcja ludzkiego mózgu”).

Gdy szef jednego z głównych graczy na polu sztucznej inteligencji z jednej strony widzi w rewolucji AI większy przełom niż wynalazek ognia, a z drugiej strony publicznie nazywa technologię AI „czarnym pudełkiem”, którego w pełni nie rozumieją nawet ludzie tworzący to „pudełko”, to idea przyhamowania rozpędzonego ekspresu, gnającego w nieznaną przyszłość wydaje się być skromnym krokiem na drodze do opamiętania.

Apele o moratorium oddają powagę sytuacji, ale mają znaczenie bardziej symboliczne niż praktyczne.

Bo czego nie dotknąć i gdzie nie stąpnąć, piętrzą się przeszkody

W Dolinie Krzemowej, tradycyjnie przeciwnej regulacjom, idea samoregulacji wydaje się mrzonką, choćby, dlatego że gdy mądre idee zderzają się z realiami rynku, zwykle zwycięża rynek.

Nie wróży sukcesu poszukiwanie międzynarodowego konsensusu w sytuacji, gdyż rywalizacja jest dziś gorętsza niż kiedykolwiek, relacje między światem demokracji i autorytaryzmu napięte do granic wytrzymałości, a rzecz idzie o technologie o ogromnym przełożeniu na walkę idei. 

Decyzje dotyczące etycznych i moralnych aspektów AI

„nie mogą być przekazywane niewybieralnym liderom technologicznym”

 Mówi apel Instytutu Przyszłości Życia.

Na samą myśl o oddaniu przyszłości czegokolwiek, co wymaga dojrzałych decyzji w ręce ludzi takich jak Mark Zuckerberg, po plecach przebiega dreszcz strachu.

W Dolinie Krzemowej dominuje pogląd, że gdy o moratorium apelował Elon Musk, kierowała nim obawa, że główni rywale mu uciekli.  -W sumie to nie jest towarzystwo, któremu chcielibyśmy powierzyć zarządzanie sztuczną inteligencją – technologią zdolną wywrócić cywilizację do góry nogami.

Print Friendly, PDF & Email
 

4 komentarze

  1. PIRS 21.08.2023
  2. Danuta Adamczewska-Królikowska 22.08.2023
    • Maciekk 23.08.2023
  3. Danuta Adamczewska-Królikowska 29.08.2023