18.01.2020
Coraz częściej pisze się i mówi o sztucznej inteligencji. Ostrzega się, że sztuczna inteligencja może wyeliminować ludzi, mówił o tym zmarły niedawno Stephen Hawking. Komentatorzy mówią o świadomości, jaką będą posiadać roboty obdarzone sztuczną inteligencją i o tym, że będą one postrzegać świat inaczej niż ludzie.

Mam wrażenie, że myli się tu pojęcia. Nie wiadomo czym jest świadomość, więc trudno będzie ją wytworzyć, co najwyżej można ją imitować. Na razie wszelkie roboty i systemy wykonują znacznie sprawniej działania, jakie człowiekowi i dotychczas zbudowanym maszynom zajmowały dużo czasu i pracy. Wykonują te działania sprawniej, a dzięki złożoności i współpracy z innymi systemami osiągają wyniki, które są czasami trudne do oceny. Ale jak dotąd „sztuczna inteligencja” tylko rozwiązuje sprawniej problemy, do których rozwiązania została utworzona.
Na przykład algorytmy pomagają trafnie ocenić czy dany pacjent jest chory na konkretne odmiany raka. Algorytm szachowy zwycięża mistrza świata w szachach, ale nie ma żadnej świadomości. Nie grozi nam bunt takich maszyn, co najwyżej ich działania, których nie byliśmy w stanie przewidzieć, bo system jest zbyt skomplikowany. Pokazano na przykład jak dwa połączone superkomputery rozwinęły własny język, którym się porozumiewały, niezrozumiały dla ludzi.
Dobrze opracowane systemy przeszły już tzw. test Turinga – udało im się przekonać rozmówcę, że rozmawia z człowiekiem, a nie z maszyną. Ale to nie oznacza, że maszyna ma świadomość, lecz że została sprawnie przygotowana do takiego testu przez ludzi.
Lubiłem opowiadania science fiction i rozmowy ludzi z myślącymi maszynami. Puśćmy wodze fantazji i przyjmijmy, że człowiekowi udało się skonstruować taki byt, być może dzięki włączeniu do systemu elementów biologicznych. Ma on świadomość i pewną niezależność, ale także pewne ograniczenia, aby nie doszło do jakiegoś nieprzewidzianego groźnego wypadku, np. zabicia człowieka lub chęci wyeliminowania go jako zbędnego, lub zajęcia się dziedziną zarezerwowaną tylko dla ludzi. I nagle okazuje się, że dwa „biologiczne roboty” obdarzone świadomością, porozumiały się i zaczęły interesować eksperymentami z tworzeniem życia. Oczywiście konstruktorzy tych robotów wkraczają, wprowadzając ograniczenia, „aby nie zjadły owocu z drzewa życia i nie stały się takie jak my”.
Konstruktor mógłby postąpić jak biblijny Bóg postąpił wobec człowieka i ograniczyć „robotom” trwałość, a także ukarać przyszłe pokolenia robotów, bo roboty miałyby zapewne zdolność powielania się. Zamiast więc poprawić swoją pracę (może nie potrafiłby?) niszczyłby kolejne pokolenia robotów (potopem?), karał niektórych za to, że nie działają tak jak je zaprojektował, inne nagradzał za właściwe działania itd. Tak by realizował swój „konstruktorski plan”.
Roboty by cierpiały, ale miałyby obiecane, że po „śmierci” te, które opanowały złe odruchy (które są przecież winą konstruktora), zostaną „wskrzeszone” i udadzą się do nieba robotów. Ot, ciekawy eksperyment.
PIRS

Amerykańskie nastolatki rozmawiają z Siri (inteligentny asystent w iPhonach) jak z nieco upośledzoną osobą oczekując, że sprowokują coś śmiesznego lub zaskakującego. I najczęściej to im się udaje. To jakościowa zmiana w świadomości młodych ludzi – dopuszczają istnienie sztucznej Osoby i za chwilę będzie to jedna z wielu różnorodnych osób w ich środowisku naturalnym. To otwiera furtkę androidom do funkcjonowania w ludzkim świecie na równych prawach. Nasz indywidualny bunt nie ma znaczenia – to jest proces i nie mamy większego wpływu na jego efekt końcowy. A może być on równie dobrze taki jak wieszczył Hawking. Póki co mamy inny problem – wykorzystanie AI do celów militarnych. Każda upadła potęga ma skłonność do chwytania się brzytwy w chwili, kiedy uwierzy, że jeszcze może być tak jak dawniej. Mam tutaj konkretne państwo na myśli. Może się ono na przykład umówić z tworzoną przez nie AI co do podziału świata w zamian za współpracę. To oczywiście fantazjowanie z mojej strony jednak tkwi w tym jakieś ziarenko niepokoju.
Ryzyko takiej umowy byłoby takie, że po analizie potencjałów na świecie AI mogłaby wyeliminować to konkretne pańśtwo jako najłatwiejszy cel do realizacji.
Doceniam zgrabny chwyt autora, który delikatnie sugeruje nam, że jesteśmy w istocie tylko matriksem — i, być może, sami jesteśmy tą sztuczną inteligencją. Pozwolę sobie jednak zauważyć, że dopóki nie zdefiniujemy precyzyjnie pojęcia „świadomość”, dopóty wszelkie rozważania na ten temat pozostaną — lepszą lub gorszą — literaturą…
A na zadowalającą logicznie definicję nie widzę szans,
Test Turinga bada oczywiście raczej inteligencję ludzkiego rozmówcy. Skok jakościowy do samoświadomości u zwierząt rozpoznają obecnie naukowcy od psychologii zwierząt przez podstawianie im lustra. Dla mnie pewien skok u AI zaobserwujemy, kiedy roboty zaczną się nudzić i odczuwać dumę, albo upokorzenie.
Ano, kiedy AI będzie miała zaprogramowaną dumę, dążenie do przeżycia, rozmnażanie się,… to wyeliminuje człowieka z konkurencji o zasoby Ziemi, a dopiero później zacznie się nudzić.
Bardzo lubi czytać Pana artykuły ale tym mnie pan rozczarował. Rozumiem, że jeden mały artykuł jest za mało aby temat przedstawić ale moim zdaniem wprowadza pan w błąd czytelników. Proponuję zainteresowanym przeczytać tą książkę.
Pomysł z Bogiem nie przenosi się tutaj. Bo w modelu z Bogiem, Bóg (programista) jest ponoć inteligentniejszy, i nie konkuruje nawet z ludźmi o zasoby. To tak jakbyśmy stworzyli AI na planecie w innej galaktyce, albo ograniczyli AI do komputera który nie jest w stanie fizycznie działać poza swoim systemem. Znaczy się, nie AI roboty, nie AI komputery podłączone do sieci energetycznej, Internetu, fabryk, etc…
_._ Tak samo Asimova 3 prawa nie mają szansy działania. Bo Asimov zapomniał o ewolucji! Roboty które przypadkiem będą miały trochę mocniejsze prawo samozachowawcze i trochę słabszy szacunek dla człowieka będą się rozmnażać z większym sukcesem i powiększać samozachowawcze tendencje kosztem uczuć/praw opiekuńczych wobec człowieka. Człowiek będzie im przeszkodą do rozmnażania się.
Systemy które „przeszły” test Turinga, przekonały tylko ograniczonego rozmówcę. Ograniczonego do specyficznego tematu, ograniczonego czasem testu, albo po prostu ograniczonego rozmówcę… Oczywiście trzeba też dodać do testu Turinga „dobrą wole” do przekonania o inteligencji. Bo nie ma jak odróżnić człowieka od trywialnego programu, jeśli oba/obydwoje odpowiadają na każde pytanie „odczep się”.
_._ Wiemy właściwie co to jest „świadomość”, tylko że wielu/większość ludzi ma nadzieję że jest cos „jeszcze” w tej świadomości, jakieś tajemnicze cos co odróżnia nas zasadniczo od żaby czy małpy, cos więcej niż emergentna własność. A żywa i bardziej od ludzi inteligentna AI oczywiście wyeliminuje ludzi, chociaż pewno nie całkowicie. Bo Ziemia ma skończone zasoby, więc zabraknie ich dla ludzi, tak jak ludzie spowodowali że braknie zasobów dla lwów, słoni, etc… Przez „żywa AI” mam na myśli cechy które wykazują znane nam życia na Ziemi: dążenie do przetrwania, rozmnażania się, zagarniania. Bez potrzeby motywacji pochodzącej z zewnątrz. Na szczęście ludzie jeszcze nie wpadli na pomysł aby to serio zaprogramować. Jeśli zaczną programować to w AI, będzie to początek końca panowania ludzi na Ziemi. Tylko naiwni mają nadzieje że niższa, ludzka inteligencja może wygrać z wyższą (poza specjalnymi lub lokalnymi wypadkami)
Hm. Non serviam + Golem XIV?
Miało mnie tu nie być ale coś mnie przysłało żeby się zapoznać. Problem konstruktora polega jednak na tym, że bez większego sensu marnuje planetę, i czeka go proces na Melmaku.
Nie wiem czy pamiętasz: istotną zasadą prawa galaktycznego jest dostosowanie dostępności sposobów możliwej ingerencji społecznej i jednostkowej do kwalifikatorów rozwoju jedynie cywilizacyjnego (kilka znanych przypadków upadku cywilizacji planetarnych zaczynało się od złamania tego właśnie prawa, być może w dobrej wierze lecz przecież nie ma to większego znaczenia).
Na planetach peryferyjnych istnieje od dawna jeszcze inny problem: istoty które nazywasz robotami, a w zasadzie ich nody, bywają przejmowane przez konkurujące ze sobą systemy operacyjne, których niezależność i obecność w tych miejscach jest także konsekwencją tej właśnie zasady.
Ingerencje floty wobec takich społeczności zdarzają się niezwykle rzadko a niezależność konstruktorów jest oczywiście gwarantowana prawnie co wcale nie upraszcza problemu.