29.08.2024
1.
W ostatnim czasie ukazało się sporo publikacji opisujących wirtualną rzeczywistość i przestrzegających przed pułapkami, jakie kryje. Czytałem je, i zapisywałem fragmenty, nie bez poczucia lęku. I irytacji. Można było to przewidzieć: cyfrowa technologia wytworzona przez człowieka sama zaczęła go wytwarzać. Ludzie stali się narzędziami w rękach swoich narzędzi – pisał niespełna dwieście lat temu Henry David Thoreau. Ponad sto lat temu, podobnie, Henryk Elzenberg: Tylko podporządkowując się rzeczom czynimy je dla siebie pożytecznymi. Przekonanie o kontrolowaniu użytkowanych technologii jest miłym złudzeniem. Rozwiewa je dziś m.in. Nicholas Carr („Technologie, którymi myślimy”): Każda technologia promuje jakieś zachowanie. Jest tak zaprojektowana, żeby używać jej w określony sposób, do którego my się dostosowujemy. Z czasem, im częściej z niej korzystamy, nasz umysł adaptuje się do tych technologicznie preferowanych sposobów myślenia i ulegają one wzmocnieniu, utrwalają się. „Internet. Czas się bać” – tak zatytułował swą książkę Wojciech Orliński.
Podstawowym celem algorytmu jest utrzymanie jak najdłużej uwagi internauty. Posługując się tzw. targetowaniem behawioralnym (śledzeniem zachowań) analizuje on profil odbiorcy i podpowiada mu w formie sugestii, czego powinien chcieć. Algorytmy są jak tlen, bez którego trudno funkcjonować. Nie tak dawna (4.10.2021) kilkugodzinna awaria Facebooka ujawniła nagły wzrost zjawiska zwanego FOMO (fear of missing out) – lęku przed pominięciem, utratą kontaktu z tym, co bieżące. Niemiecko-szwajcarski filozof kultury Byung-Chul Han pisze o czymś, co widać gołym okiem: Smartfon stał się obiektem kultowym. Ciągle trzymamy go w ręce, jak kiedyś różaniec. A „lajki” są jak „amen”. Utrwala się tzw. efekt potwierdzenia: szukając bezustannie nowych informacji znajdujemy najczęściej te, które potwierdzają to, co już wiemy i co akceptujemy. Większość portali nie informuje swych odbiorców, lecz utwierdza ich we własnych przekonaniach i opiniach.
Karen Stenner, australijska badaczka związków polityki i psychologii, pisze o predyspozycji autorytarnej (authoritarian predisposition) ludzi, którzy nie tolerują jakiejkolwiek złożoności i odmienności. Odnajdują bezpieczeństwo w informacjach prostych i zrozumiałych. Kazuo Ishiguro, noblista (2017), w swej powieści „Klara i słońce” mówi, że bycie człowiekiem opiera (opierało?) się na poczuciu jednostki, że daje coś społeczeństwu. A co, jeśli ktoś niczego dać nie będzie w stanie? Ludzkość zostanie zmuszona do wymyślenia siebie na nowo. A świat, w którym się na nowo wymyśli, niekoniecznie będzie światem urządzonym przez człowieka.
Przynajmniej od czasu pandemii życie prywatne (zakupy, edukacja, kultura) przeniosło się do świata cyfrowego. 80% filmów na Netfliksie oglądamy dzięki sieciowym rekomendacjom, podobnie ponad 35% zakupów. Stale poruszamy się w tych samych obszarach i bardzo trudno jest wyjrzeć poza internetową bańkę. Nie jesteśmy w stanie poszerzyć perspektywy, by zobaczyć świat choć trochę zobiektywizowany. Dwadzieścia sześć wieków temu o czymś podobnym (choć oczywiście chodziło o rzecz bytowo odmienną) pisał w „Państwie” Platon posługując się alegorią jaskini. Żyjący w niej ludzie, odwróceni do wyjścia i przykuci do skał, widzą tylko cienie, jakie rzucają na ścianę (ekran) realne przedmioty oświetlane z tyłu ogniem. Fantomy widoczne na ekranie przypominają wizje preparowane przez algorytmy: i jedne, i drugie brane są za rzeczywistość. Żeby uwolnić się od miraży konieczne jest, pisze Platon, „odwrócenie szyi” (περιάγειν τὸν αὐχένα), która najwidoczniej i wtedy i dziś uległa paraliżowi.
2.
Mathias Döpfner, szef Axel Springer, w liście otwartym do przewodniczącej Komisji Europejskiej Ursuli von der Leyen pisał o powszechnej praktyce platform cyfrowych polegającej na szpiegowaniu klientów. Przytacza wypowiedź byłego prezesa Google`a, Erica Schmidta: Wiemy, gdzie jesteś. Wiemy, gdzie byłeś. Mniej więcej wiemy, o czym myślisz. Prof. Wojciech Cellary, specjalista w dziedzinie technologii informacyjnych, opisuje absurdalną na pozór sytuację, w której kurier przywozi niezamówiony towar mówiąc: przecież marzył pan o tym. Po to zainwestowaliśmy w sztuczną inteligencję […] i zebraliśmy wszystkie możliwe dane o panu, aby moc przewidzieć z góry, za co i kiedy będzie pan skłonny zapłacić. Znamy pana lepiej niż pan sam. Döpfner przyznaje rację prof. Shoshanie Zuboff z Harvardu, której zdaniem od pewnego czasu żyjemy w kapitalizmie inwigilacji (surveillance capitalism). Mark Zuckerberg ma w swojej cyfrowej stajni (Facebook, także Instagram i WhatsApp) niespełna 3,5 mld użytkowników, o których wie więcej, niż wiedzą o sobie oni sami. Dostosowane do ich zainteresowań i potrzeb reklamy przyniosły firmie niespełna 85 mld dolarów (w 2015 roku medialne sugestie wskazywały, że winien kandydować na prezydenta USA).
Shoshana Zuboff, o której wspomina Döpfner, przez kilkadziesiąt lat badała związki psychologii społecznej z Internetem i sztuczną inteligencją. W rozmowie z Rafałem Wosiem mówi, że żyjemy w kapitalizmie nadzoru, zaś nadzorcami są wielkie platformy, czyli cyfrowe korporacje – Facebook, Apple czy Google. Najpierw zabrali nasze dane, nie pytając nikogo o zdanie. A potem dorobili się na obracaniu tymi danymi wielkich fortun. […] To powinny być dobra wspólne, bo ich status bierze się z posiadania naszych wspólnych danych. A nie – prywatne wehikuły służące do akumulacji władzy przez kilka korporacji. Jej najbardziej znana (ponad 800 stron!) książka nosi alarmistyczny tytuł: „The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power”, 2019 (polskie tłumaczenie Alicji Unterschuetz – „Wiek kapitalizmu inwigilacji. Walka o przyszłość ludzkości na nowej granicy władzy” – Zysk i S-ka, 2020). Kapitalizm inwigilacji to pasożytniczy porządek ekonomiczny, który uznaje ludzkie doświadczenie za darmowy surowiec do ukrytych handlowych praktyk wydobycia, prognozowania i sprzedaży. Relacje podporządkowania z sieciowymi gigantami prowadzą do utraty tego, co definiowało ludzką podmiotowość: sprawczości jednostek i społeczeństw (autorka mówi o nowej tyranii i zamachu na ludzi!). Podobnie ujmuje rzecz badaczka mediów, prof. McKenzie Wark („Capital is Dead. Is This Something Worse?”), której zdaniem klasa kapitalistów stała się całkowicie podrzędna wobec klasy cybernetyków. Zawarte w tytule pytanie – czy może być gorzej? – jest czysto retoryczne.
3.
Algorytm odwołuje się do emocji, nie wiedzy, ta bowiem źle się sprzedaje. Coraz częściej pojawia się pytanie, czy dysponentów algorytmów – technokratów z Doliny Krzemowej – nie skusi pełna władza nad przepływem informacji. Kazuo Ishiguro nie ma wątpliwości: AI rychło będzie w stanie manipulować emocjami. A to oznacza, że będzie mogła rozpoznawać społeczne frustracje i poprowadzić skuteczną kampanię polityczną. Albo wymyślić następną wielką ideę, coś, co porwie ludzi i zorganizuje im życie, jak nazizm, komunizm czy kapitalizm. Jak wynika z zeznań składanych na Capitolu przez Frances Haugen, byłą pracownicę FB, biznes Marka Zuckbergera opiera się na przykuwaniu uwagi odbiorców za pomocą treści wywołujących gniew, nienawiść i polaryzację poglądów, emocji przykuwających do jego platformy.
Do oczekiwań odbiorców odnoszą się coraz częściej politycy, którzy pracę nad rzetelnym programem zastępują wsłuchiwaniem się w aktualne nastroje uwidaczniane w badaniach ankietowych To samo dzieje się z kulturą. Krzysztof Varga omawiając tandetne, cieszące się wzięciem filmy Patryka Vegi pisze, że karmią się potrzebą napawania się wulgarnością i brutalnością. Widz Vegi utwierdza się w przekonaniu, że Polską rządzą spiski, układy, złodziejstwo, bandytyzm. Shoshana Zuboff opisuje rosnący udział platform cyfrowych w kampaniach wyborczych, podczas których skutecznie sprzedano Brytyjczykom ideę brexitu, a Amerykanom Donalda Trumpa. W tym wypadku „sprzedawcami” byli specjaliści z GRU, którzy bez szczególnych przeszkód wykorzystywali narzędzia Facebooka (co później FB starał się ukryć) do ingerowania w amerykańskie wybory w 2016 roku. (W październiku 2021 „Washington Post” pisał o wspieraniu przez FB jednej tylko polskiej partii politycznej, Konfederacji.) Trump zwracał się na Twitterze bezpośrednio do odbiorców (miał ponad 90 mln obserwatorów). Łatwość, z jaką uwierzyli mu, tłumaczy Timothy Snyder wspominając o mechanizmach obronnych i infekującym świadomość „przedrozumieniu”: Trzeba ogromnie napracować się nad edukacją obywateli, by uodpornić ich na potężną presję wiary w to, w co sami już wierzą, w co wierzą inni lub co nadawałoby sens ich poprzednim wyborom. Media społecznościowe mogą dostarczyć każdej opinii dowolnej ilości czegoś, co wygląda na dowód. Snyder: Podobnie jak faszystowscy wodzowie, Trump prezentował się jako jedyne źródło prawdy. Termin „fake news” był w jego ustach echem nazistowskiej obelgi „Lugenpresse” („kłamliwa prasa”). Jak naziści, nazywał dziennikarzy »wrogami ludu«. […] Naziści chcieli zastąpić dawny drukowany pluralizm radiem, a Trump próbował tego samego z Twitterem. Cyfrowa okupacja doskonali się, pojawiają się serwisy oparte na algorytmach skreślających możliwość odniesienia się do jakiegokolwiek „ty”, czy nawet do rzeczywistości innej niż ta, która tkwi już w umyśle odbiorcy. Podsuwają mu to, co zna i lubi. Jeśli zaś wykraczają poza sferę „własną”, to w stronę tego, co definiuje autokratyczna władza.
Algorytmy nie mają zdrowego rozsądku i bywa, że się mylą. Dokonują nadmiernej ekstrapolacji aktualnych danych, albo mylą korelację ze związkami przyczynowymi. Pisał o tym Jarek Gryz, przestrzegając też przed zbyt poważnym traktowaniem terminu „sztuczna inteligencja” (AI: artificial intelligence – termin Johna McCarthy´ego). Taka antropomorfizacja rodzi wygórowane oczekiwania: zaczynamy o maszynach myśleć jak o maszynach myślących. Zapominamy jednocześnie, że pracują one w izolacji poznawczej: wiedzą tylko tyle, ile im wprost powiemy. To sprawa kluczowa: co oznacza ów zaimek „my”, kto wpisuje algorytmom cele i określa metody działania?
Cyfryzacja i robotyzacja wywołują bezrobocie i blokują drogi awansu społecznego. Prowadzi to do postępującego rozwarstwienia dochodowego i wytworzenia się nowej oligarchii, która zarządzając informacją i manipulując odbiorcami buduje podstawy nowego, zazwyczaj trudnego do zauważenia, autorytaryzmu. Cathy O’Neil – pisze o tym Piotr Wójcik w „Krytyce Politycznej – określiła algorytmy wpływające na życie społeczne mianem „broni matematycznej zagłady”. Ponieważ bazują na przeszłości, utrwalają stereotypy i niesprawiedliwe podziały społeczne. Maszyny służące do wyszukiwania potencjalnych kandydatów lub weryfikujące ich aplikacje mogą dyskryminować konkretne osoby tylko dlatego, że w przeszłości były nieuprzywilejowane. W badaniu przeprowadzonym w 2019 roku przez naukowców z Northeastern University przyjrzano się działaniu targetowanych reklam z ofertami pracy umieszczanymi na Facebooku. Okazało się, że oferty pracy kasjera w supermarkecie trafiały w 85 proc. do kobiet, natomiast informacje o wakatach w firmach taksówkarskich odczytywali w 75 proc. czarnoskórzy mężczyźni. W ten sposób powielany jest porządek społeczny, który jest efektem wieloletniego nieuprzywilejowania konkretnych grup osób. Tworzy sztuczne bańki, w wyniku czego osoby z konkretnymi charakterystykami zostają odcięte od atrakcyjnych ofert pracy i mają wrażenie, że dla takich jak one przeznaczone są tylko niskopłatne stanowiska.
Cory Doctorow przytacza wyniki badań opublikowane przez Upwork Research Institute. Pokazują, że 96 proc. szefów oczekuje, że sztuczna inteligencja podniesie wydajność pracowników. 85 proc. firm albo wymaga od pracowników stosowania sztucznej inteligencji, albo usilnie do tego zachęca. 49 proc. pracowników nie ma pojęcia, w jaki sposób sztuczna inteligencja miałaby poprawić ich wydajność. 77 proc. pracowników twierdzi, że stosowanie sztucznej inteligencji obniża ich wydajność.
Przy tym wszystkim AI jest niebywale kosztowna. Moc obliczeniowa bierze się z wykorzystywania ogromnej ilości konwencjonalnych źródeł – paliw kopalnych, wody, rzadkich surowców mineralnych. Konsekwencją jest zatruwanie środowiska naturalnego (produkcja i używanie jednego egzemplarza wysokiej klasy iPhone`a to emisja 74 kg CO2).
4.
Amerykański pisarz i wykładowca Erik Davis („TechGnoza. Mit, magia + mistycyzm w wieku informacji”) nie owija niczego w bawełnę: Granice zanikają, dryfujemy w sferę niczyją pomiędzy życiem syntetycznym i globalnym przepływem dóbr, informacji, siły roboczej i kapitału. Wraz z pigułkami modyfikującymi osobowość, maszynami modyfikującymi ciało, syntetycznymi przyjemnościami oraz umysłami w sieci generującymi bardziej płynne i sztuczne poczucie naszego »ja«, także i granice naszej tożsamości podlegają zmianom. Prof. Eben Moglen, specjalista od oprogramowania, w rozmowie z Jackiem Żakowskim mówi o cyfrowym widmie krążącym po świecie. Wygląda jak wielka sieć na ryby. Ale zamiast ryb łapią się w nią ludzie. Jesteśmy w pół drogi prowadzącej do połączenia wszystkich ludzi na świecie jednym systemem nerwowym. Za naszego życia każdy mózg będzie formowany w tej sieci. […] telefony, komputery, karty, terminale, kamery dokoła, internet i sieci komórkowe, oprogramowanie, satelity, światłowody, serwery, ci, którzy ich używają. To wszystko zrosło się w Maszynę. Ona nas używa.
Czy zrodzi się – taką nadzieję ma Frances Hauge – ruch na rzecz wyzwolenia spod cyfrowego kolonializmu i odzyskiwania człowieczeństwa? Trudno na to liczyć choćby dlatego, że cyfrowa infekcja ogarnia przede wszystkim młodzież i dzieci. Psycholog i socjolog Tomasz Szlendak pisze, że wyjście z domy bez smartfona to dla 30-latka tyle, co wyjście bez ręki, dla 20-latka – bez głowy, zaś dla gimnazjalisty – bez siebie. Nawet niektórzy z moich leciwych, bywa że utytułowanych, znajomków przypominają pod tym względem gimnazjalistów. Choć mam też oczywiście takich, którzy nie posiadają telefonów komórkowych, wystrzegają się zwłaszcza smartfonów, włączają komputer kilka lub kilkanaście razy w tygodniu, by przeczytać pocztę, piszą ręcznie (to są inne teksty, niż te spod klawiszy). Oni bez większego żalu uznali swą niedzisiejszość i nie przychodzi im do głowy, by walczyć z cyfrowymi wiatrakami.
Andrzej C. Leszczyński
Jak zawsze doskonała analiza tego co jest z odwołaniem się do przeszłości nawet tak odległej jak ta jaskinia Platona – normalne, jak to u Andrzeja Leszczyńskiego.
Ale jest problem – to co Autor pisze to stan na dziś, na teraz, gdy AI to narzędzie w ręku ludzi, takich ludzi jacy są teraz, nastwieni na zysk i pieniądze. AI w rękach takich ludzi to zagrożenie dla świata, zagrożeniem są jednak jak zawsze ludzie a ich narzędzia wyznaczają, jak zawsze, skalę tych zagrożeń. Skala rośnie wraz z doskonaleniem narzędzi, karabin maszynowy był większym zagrożeniem niż łuk czy dzida, bomba atomowa to nowa skala zagrożeń dla świata w porównaniu do konwencjonalnych, takich jakie były wcześniej.
Wszystkie przykłady zagrożeń AI jakie Autor przytacza dotyczą tego momentu gdy jest ona narzędziem w rękach jakiś ludzi a ja myślę o czasie. w którym ona będzie autonomiczna, nie będzie narzędziem a bytem samomyślącym i autonomicznym. Mając do wyboru świat zarządzany przez ludzi w rodzaju Trumpa czy Putina wolę świat zarządzany przez taką samomyślącą i samouczącą się AI. Horyzont czasowy takiej zmiany – 30-50 -lat jest poza moim zasięgiem, tym łatwiej mi mówić takie herezje
Przeczytałam kilka książek na temat zagrożeń cyfrowych. Dużo czytam ale też dużo uzywamam technologii. Od paru dobrych lat uczę też dzieci i młodzież bezpiecznego zachowania w sieci. We wszystkich książkach, które przeczytałam pisze się GŁÓWNIE o zagrożeniach. O maniulacji, Facebooku, wpływie instagramu na psychikę dziewcząt itd itp. O korzyściach płynacych z nowych technologii pisze się mało albo wcale. Do pewnego momentu byłam autentycznie przerażona! W końcu przyszła refleksja. Czy to nie jest aby trochę na wyrost. Przecież to wszystko jest ZAMIAST. Przykładowo zamiast wziać do ręki gazetę mam ją w smartfonie. Zamiast pójsć na pocztę o zrobić przelew odpalam komputer. Itd. Nie sądzę żeby była mozliwość powrotu do tego co już było. Ale straszenie Internetem przybrało już formę jakiejś psychozy. Ma nas zniwolić, panowie z doliny krzemowej mają przejąc władzę. Bańki informacyjne itd. Ale to już było! Zawsze wybieralismy gazety które odpowiadały bardziej naszym poglądom! Chyba że zyjemy w totalitarnym społeczenstwie ale do tego nie potrzeba INTERNETU! Dlaczego ja sobie robie prasowkę siedząc w Polityce i na Studio Opinii? Mam czytać W sieci? No nigdy w zyciu. Polaryzacja zawsze była, jest i będzie. INTERNET oczywiscie poprzez zwlaszcza portale społecxnościowe może ja wzmacniać. Może też rozsiewać fake newsy. Ale gazety papierowe też to robią! To nie zmanipulowana rzekomo młodzież siegajaca po smartfony wybiera PiS tylko starsi zmanipulowani przez TELEWIZJĘ Trwam i … wizje starsi ludzie. Zachowajmy spokoj. Tego się już nie da odwrócić.