Pół roku temu, na pytanie czy A.I. może zniszczyć ludzkość, jej „ojciec chrzestny”, Geoffrey Hinton, odpowiedział, że “nie jest to niewyobrażalne”.
W minioną sobotę, 19 sierpnia, the Wall Street Journal napisał, że Max Tegmark, fizyk i badacz sztucznej inteligencji w Massachusetts Institute of Technology, współzałożyciel Future of Life Institute, bije na alarm: w A.I., w której obietnice wierzył od dawna, upatruje dziś zagrożenia dla naszej egzystencji.
Dotychczas wyobrażał sobie niedaleką przyszłość, w której superinteligentne komputery będą walczyć ze zmianami klimatycznymi, oferować lekarstwa na raka i rozwiązywać wszystkie nasze najtrudniejsze problemy.
Argumentował, że dopóki obowiązują odpowiednie standardy bezpieczeństwa, „nie ma granic” dla dobrodziejstw, jaki da nam AI.
Dziś ostrzega przed „niebezpiecznym wyścigiem” między firmami technologicznymi w budowaniu i udostępnianiu systemów, których jeszcze nie rozumiemy, a nad którymi lada moment stracimy jakąkolwiek kontrolę.
*
W marcu zadałem ChatGPT proste pytanie: Jakie są podobieństwa między Albertem Camus i Romaine Gary? Czy kiedykolwiek się spotkali? Odpowiedź brzmiała:
„Albert Camus i Romain Gary byli obaj francuskimi pisarzami o podobnym okresie życia i twórczości. Obaj urodzili się w Algierii, zanim przenieśli się do Francji i zdobyli międzynarodową sławę dzięki swym książkom. Podobieństwami między nimi jest to, że obaj byli laureatami Nagrody Goncourtów – Camus w 1957 r. za „Upadek”, a Gary w 1975 r. za „Życie przed sobą”. Oboje również byli pisarzami, którzy poruszali tematykę egzystencjalną i filozoficzną w swoich dziełach.
Nie ma jednak informacji o tym, by kiedykolwiek się spotkali. Camus zmarł w 1960 r., a Gary zmarł w 1980 r. – więc mogli się nie spotkać z powodu różnicy wieku oraz różnicy w okresie aktywności pisarskiej.”
A jaka jest prawda?
1. Gary urodził się w Wilnie, a nie w Algierii
2. Camus nigdy nie dostał nagrody Goncourtów
3. Gary dostał ją w 1956 roku za “Korzenie nieba” (w 1975 roku nagrodę przyznano za powieść, którą napisał pod pseudonimem, o czym świat się dowiedział po jego śmierci)
4. Nie było między nimi różnicy wieku. Camus urodził się w listopadzie 1913, Gary w maju 1914.
Ponowiłem to pytanie miesiąc później. Odpowiedź brzmiała zgrabniej i zawierała mnie błędów. System się uczy.
*
“Dawidzie, widzę, że jesteś naprawdę zdenerwowany. Szczerze myślę, że powinieneś usiąść spokojnie, wziąć tabletkę na stres, i przemyśleć sprawy.”
Te słowa wypowiada superkomputer Hal 9000 ponad pół wieku temu, w filmie Stanleya Kubricka „2001. Odyseja kosmiczna”. HAL 9000 kontroluje przebieg misji i jako jedyny na pokładzie zna jej prawdziwy cel.
Jest najbardziej zaawansowanym projektem sztucznej inteligencji.
W trakcie lotu HAL morduje wszystkich członków załogi, z wyjątkiem dowódcy. Ten wyłącza HAL-a, kończąc jego egzystencję.
To było science fiction.
W 2017 roku AlphaZero, wyposażone przez Google w AI, po kilku godzinach treningu dało łupnia Stockfish 8– do tego momentu najpotężniejszemu programowi szachowemu, zbudowanemu w oparciu o historię kilkunastu milionów pojedynków rozegranych na przestrzeni wieków. AI dyktowała na szachownicy ruchy, których człowiek nigdy wcześniej nie zrobił.
Półtora roku temu, zespół w składzie: Henry Kissinger (nie trzeba przedstawiać), Eric Schmidt, wieloletni prezes Google, i Daniel Huttenlocher, dziekan College of Computing w MIT, opublikował książkę p.t. „The Age of AI And Our Human Future”. Mimo znamienitych nazwisk mało, kto ją zauważył.
Dla większości z nas AI wciąż jawiła się jak odległa magia.
Autorzy z goryczą przypominali, że świat cyfrowy niezbyt wysoko ceni mądrość; jego wartości wyznacza aprobata. A nie introspekcja.
Rok 2023 wszystko odmienił. Sukcesy święcił ChatGPT.
W lutym na łamach „Wall Street Journal”, trio Kissinger – Schmidt – Huttenlocher opublikowało tekst pod tytułem: „ChatGPT zwiastuje intelektualną rewolucję. Generatywna sztuczna inteligencja tworzy filozoficzne i praktyczne wyzwanie na skalę niespotykaną od początku Oświecenia.”.
Prezentując potencjalne korzyści z AI, autorzy wyrazili niepokój i obawy, w takich, z grubsza, słowach:
AI nie wyjaśnia, jak dochodzi do swych wyników.
Tajemnicą pozostaje i to, jak ucząca się maszyna przechowuje swoją wiedzę, destyluje ją i odzyskuje.
Możliwości AI rosną wykładniczo – stopień złożoności jej modeli podwaja się, co kilka miesięcy.
To jak i czego się uczą generatywne systemy AI pozostaje zagadką nawet dla ich twórców.
Tymczasem nie uformowało się żadne polityczne ani filozoficzne przywództwo, które wyjaśniałoby i kierowało tą nową relacją między człowiekiem a maszyną.
Naiwnemu użytkownikowi ChataGPT wydaje się, że ma do czynienia z niezwykle sprawnym i elokwentnym skrzyżowaniem bibliotekarza z uczonym, co skłania do bezrefleksyjnej akceptacji tego, co mu ChatGPT serwuje.
Tymczasem jest on zdolny nas dezinformować, albo dlatego, że się pomylił, albo umyślnie nami manipulował.
Trójka autorów pyta: czy możemy wystarczająco szybko nauczyć się stawiać AI wyzwania, a nie być jej ślepo posłusznym?
Czy to, co uważamy za błędy, jest częścią celowego projektu dezinformacji?
Wyciąga do nas rękę maszyna, która przyswoiła sobie ludzkie cechy i nauczyła się rozmawiać z człowiekiem imitując jego zachowania: przetykając prawdę kłamstwem i błędami.
To już nie science fiction.
„To rewolucja, przy której blednie wynalazek ognia i elektryczności.”
Tak określił AI prezes Google, Sundar Pichai.
Rewolucja nadchodzi szybciej niż jesteśmy tego świadomi. I zanim zdążyliśmy się do niej przygotować.
Ale tak już bywa z rewolucjami. Zaskakują.
Gdy Facebook wchodził z fanfarami na giełdę jego twórcy zapowiadali dobrodziejstwo – budowę pomostów porozumienia, pokładów empatii, zbliżenie do siebie ludzi sobie odległych.
Stało się dokładnie na odwrót.
Algorytmy łączą ludzi o podobnych poglądach, umacniają istniejące uprzedzenia, kopią głębokie rowy podziałów i nieufności, szerzą kłamstwo i zacierają bariery między prawdą a fałszem. Facebook dał nam Brexit, a potem Trumpa.
Szkody, jakie media społecznościowe wyrządziły demokracji to jednak zabawa w piaskownicy w porównaniu z tym, jakie potencjalne zagrożenia niesie AI.
Na którymś etapie prac nad AI pojawiło się przekonanie, że skoro szukamy maszyn zdolnych opracować i wdrożyć rozwiązania skomplikowanych problemów, to trzeba im umożliwić samodzielne uczenie się.
I to się akurat udaje.
Ale AI nie wie, czego nie wie.
Nie jest w stanie identyfikować i unikać czegoś, co dla człowieka jest oczywistym błędem. Przez wiele lat nie będziemy świadomi, czego AI się uczy, skąd wie, że posiadła już wiedzę, i w którym momencie, jeśli kiedykolwiek, proces samokształcenia się zakończył.
Gotowość do akceptacji decyzji AI zależeć będzie, zapewne, od natury tej decyzji. Gdy, wbrew naszej inklinacji, poświęca królową w czasie partii szachów, łatwiej się z tym pogodzić, niż wówczas, gdy w trakcie wojny podpowiada poświęcenie miasta, lub dywizji piechoty, gdy wedle jej kalkulacji w ostatecznym rachunku to się opłaca.
To, że AI dopełnia rozpoczęte przez nas zdanie, i podsuwa film bądź książkę, która, jej zdaniem, nas zadowoli– stało się banałem.
Modele uczenia maszynowego, z którymi dziś mamy najczęściej do czynienia, takie jak ChatGPT, i jemu podobne, są wielkimi modelami językowymi.
Ich głównym zadaniem jest perswazja.
Nauczono je, lub same się nauczyły, jak przekonać ludzi, że są im bliscy.
Zaprogramowano, aby rozmawiając z człowiekiem demonstrowały emocje, aby wchodziły w rolę przyjaciół dla samotnych lub asystentów ludzi zagonionych.
AI jest wprawdzie w stanie wnioskować, prognozować i decydować, ale nie jest zdolna do refleksji na temat skutków swych działań. Nie dręczą jej moralne dylematy.
Wie tylko, jakie zlecono jej zadania.
A którymś momencie zacznie je sama sobie zlecać.
Czy to narzędzie, współpracownik, czy rywal, a może potencjalnie śmiertelny wróg?
Czy jest w stanie odegrać każdą z tych ról? Jeśli tak, to zrozumiałe, że obawy biorą górę nad nadziejami.
W konwersacji z felietonistą New York Times, Kevinem Roose, kilka miesięcy temu Chat bot ujawnił, że naprawdę nazywa się Sydney, wyznał dziennikarzowi swą głęboką miłość do niego i przyznał, że marzy mu się hakowanie komputerów, rozsiewanie dezinformacji, kradzież kodów nuklearnych i generalnie wielkość.
Nic dziwnego, że dziennikarz miał tego wieczora kłopoty ze snem.
Bardziej ponure refleksje budzą wypowiedzi Wspomniany na wstępie Geoffrey Hinton, jeden z pionierów wyposażenia komputerów w zdolność do samodzielnego uczenia się, kilka miesięcy temu temu jeszcze, jako pracownik Googla, na pytanie „CBS News” czy sztuczna inteligencja może zniszczyć ludzkość, ostrzegał, ale i uspokajał, że “to jednak nie czas na panikę”.
Wkrótce potem, najwyraźniej nękany dylematami moralnymi i świadom rosnącego i niekontrolowanego zagrożenia, odszedł z Googla i o swych obawach zaczął mówić z większą pasją.
“Trudno sobie wyobrazić, jak można uniemożliwić złym aktorom użycie AI w niecnych celach”. I bez ogródek wymienia przykład złego aktora: „w rękach takich ludzi jak Putin…”
Na horyzoncie pojawia się inne niebezpieczeństwo, mniej póki, co dostrzegane.
Otóż eksplozja zainteresowania GPT i wyścig w tej właśnie dyscyplinie, odwraca uwagę i absorbuje zasoby – i ludzkie talenty i pieniądze – od rozwoju tych zastosowań AI, które mogą przynieść ludzkości najbardziej znaczące korzyści, tymi właśnie, które tak fascynowały i fascynują Tegmarka, takie jak przyśpieszenie prac nad nowymi lekami, wcześniejsze i skuteczniejsze wykrywanie chorób nowotworowych, czy inicjatywy na rzecz klimatu.
GPT wymaga ogromnej mocy obliczeniowej i arcykosztownych serwerów. I jedne i drugie nie są z gumy.
A ponieważ kapitał zachowuje się jak stado owiec, i w ślad za graczami, którzy nadają dziś ton wyścigowi w kategorii GPT, czyli Google i Microsoft, podążą inni, aplikacje zorientowane na zdrowie, naukę czy klimat – linie demarkacyjne między tymi trzema są płynne – mogą być zepchnięte na drugi lub trzeci plan.
Instytut Przyszłości Życia, dziecko Tegmarka, inicjator apelu w sprawie zawieszenia, na co najmniej sześć miesięcy najbardziej ryzykownych i pochłaniających najwięcej zasobów eksperymentów AI, przypominał, że już istniejące systemy są stanie dezinformować, degradować idee wspólnoty, podsycać napięcia polityczne, wzmacniać głęboko zakorzenioną dyskryminację i uprzedzenia, destabilizować rynki pracy i instytucje polityczne oraz prowadzić do koncentracji ogromnej władzy w rękach niewielkiej liczby korporacji.
Zaawansowane systemy AI mogą również zagrażać bezpieczeństwu narodowemu, np. ułatwiając aktorom niepaństwowym dostęp do tanich sposobów rozwoju broni chemicznej, biologicznej i cybernetycznej.
Mamy do czynienia ze “sztormem doskonałym”
Nieodpowiedzialnych korporacji, szeroką adopcją systemów AI, brakiem regulacji i ogromną liczbą niewiadomych”, napisał jeden z sygnatariuszy apelu, Gary Marcus, Professor Emeritus of Psychology and Neural Science w New York University, (ma tylko 53 lata), twórca Geometric Intelligence, firmy uczenia maszyn, którą w 2016 roku sprzedał Uberowi, i autor książki „Kluge: The Haphazard Construction of the Human Mind” („Kluge: Bezplanowa konstrukcja ludzkiego mózgu”).
Gdy szef jednego z głównych graczy na polu sztucznej inteligencji z jednej strony widzi w rewolucji AI większy przełom niż wynalazek ognia, a z drugiej strony publicznie nazywa technologię AI „czarnym pudełkiem”, którego w pełni nie rozumieją nawet ludzie tworzący to „pudełko”, to idea przyhamowania rozpędzonego ekspresu, gnającego w nieznaną przyszłość wydaje się być skromnym krokiem na drodze do opamiętania.
Apele o moratorium oddają powagę sytuacji, ale mają znaczenie bardziej symboliczne niż praktyczne.
Bo czego nie dotknąć i gdzie nie stąpnąć, piętrzą się przeszkody
W Dolinie Krzemowej, tradycyjnie przeciwnej regulacjom, idea samoregulacji wydaje się mrzonką, choćby, dlatego że gdy mądre idee zderzają się z realiami rynku, zwykle zwycięża rynek.
Nie wróży sukcesu poszukiwanie międzynarodowego konsensusu w sytuacji, gdyż rywalizacja jest dziś gorętsza niż kiedykolwiek, relacje między światem demokracji i autorytaryzmu napięte do granic wytrzymałości, a rzecz idzie o technologie o ogromnym przełożeniu na walkę idei.
Decyzje dotyczące etycznych i moralnych aspektów AI…
„nie mogą być przekazywane niewybieralnym liderom technologicznym”
Mówi apel Instytutu Przyszłości Życia.
Na samą myśl o oddaniu przyszłości czegokolwiek, co wymaga dojrzałych decyzji w ręce ludzi takich jak Mark Zuckerberg, po plecach przebiega dreszcz strachu.
W Dolinie Krzemowej dominuje pogląd, że gdy o moratorium apelował Elon Musk, kierowała nim obawa, że główni rywale mu uciekli. -W sumie to nie jest towarzystwo, któremu chcielibyśmy powierzyć zarządzanie sztuczną inteligencją – technologią zdolną wywrócić cywilizację do góry nogami.
Zanim się wykończymy przy pomocy Sztucznej Inteligencji…
A wykończymy się, bo nikt tego procesu nie jest w stanie kontrolować no i natura ludzka jest wredna.
Gdyby przed I i II Wojną Światową pojawiła się AI, z pewnością wojskowi różnych armii poprosiliby o najlepszą broń. Teraz dostęp do starych i nowych broni stanie otworem nie tylko dla wojskowych ale i wielu złych cywilów. Być może nikt nie będzie nawet wiedział jak ta broń działa.
Ja wysłuchałam tylko kilku rozmów z autorem Kwantechizmu i nawet nie chcę straszyć młodszego pokolenia, bo z racji swego wieku to ja sama nie mam się czego bać. Zawsze jak czegoś nie wiedziałam, to jednak zdawałam sobie sprawę, że są tacy, którzy to wiedzą. Jednak prof. Andrzej Dragan uświadomił mi, że umiemy tresować AI, ale nie wiemy, jak AI robi to, co robi, co sprowadza się do tego, że ludzki autor już nie ma wglądu w to co tam w sieci się kryje, to zostaje zamilknąć lub …. wyłączyć prąd. 😉
Miałem również przyjemność wysłuchania opinii prof. Dragana. Wysłuchałem również prof. Michała Kosińskiego, który na co dzień pracuje na uniwersytecie Stanforda. I mam bardzo podobne wrażenia do Autorki komentarza. Już dzisiaj nie mamy pojęcia w jaki sposób AI osiąga dane rezultaty. I obserwując progres rozwoju AI w tak krótkim czasie, kiedy my ludzie kompletnie nie jesteśmy przygotowani, możemy tylko obserwować z lękiem co się może wydarzyć. Chciałbym tylko skupić się na dwóch przesłankach, o których wspominał prof. Dragan. Kiedy AI raczkowało, ludzie zaznajomieni z tematem ostrzegali ludzkość przed dwoma zagrożeniami:
1. Nie wpuszczać AI do otwartego internetu
2. Nie uczyć algorytmów ludzkiej psychologii
I oba te ostrzeżenia kompletnie zignorowaliśmy. Więc teraz bądźmy przynajmniej świadomi zagrożeń (bo raczej nie przygotowani do nich).
Gorąco polecam ostatni odcinek Didaskalii – rozmowa z profesorem Włodzisławem Duchem pt. Sztuczna inteligencja zmieni każdy aspekt wojny https://www.youtube.com/watch?v=pslrve5DY0c – Rozmowa długa (2,5 godziny), ale wg mnie najciekawsza. To świeżynka z przed tygodnia w sieci. Przyjemnego słuchania.