Jak blisko człowieka jest android?

Jak blisko człowieka jest android?

Jaszczomb | 01.05.2018, 12:31

Nadchodzi Detroit: Become Human, a w nim wizja niedalekiej przyszłości, gdzie androidy zaczęły odczuwać ludzkie emocje i pragną wolności. Tylko czy sztuczna inteligencja może w ogóle zajść tak daleko?

Ilekroć trafiam na historię o odczuwających emocje czy buntujących się robotach, mam problem z zawieszeniem swojej niewiary. Maszynami steruje w końcu sztuczna inteligencja, czyli coś, co w całości jest zaprojektowane przez człowieka. „Inteligencja” to zresztą wydumana nazwa, w końcu to system rozwiązywania problemów, zwykły zbiór poleceń rodzaju „zrób to JEŚLI stanie się tamto CHYBA ŻE nastąpi co innego”. Jeśli twórca nie uwzględni w puli zasad czegoś w rodzaju „zbuntuj się, w sytuacji gdy…”, to jakim cudem zero-jedynkowy umysł miałby się obrócić przeciwko ludzkości?

Dalsza część tekstu pod wideo

Wciąż jednak fantastyka naukowa od lat próbuje wywołać w nas strach, że postęp technologiczny doprowadzi do powstania robotów znacznie inteligentniejszych od człowieka i staniemy się dla nich zbędni. Ba, popularnonaukowe teksty upodobały sobie teorie na temat pojemności naszego mózgu przedstawionej w terabajtach, według których hipokamp, czyli część odpowiedzialna za naszą pamięć, ma mieścić od 1 terabajta (1024 GB) do nawet 2,5 petabajtów (~2500 TB) „danych”. To oczywiście nie znaczy, że za te kilka(naście) lat, gdy pojemność w naszych smartfonach będziemy liczyć w petabajtach, telefony te staną się od nas mądrzejsze – ale brzmi to wystarczająco złowieszczo, by fani sci-fi zaczęli się zastanawiać i bać Skynetu.

O temacie samoświadomych, odczuwających emocje sztucznych inteligencji postanowiłem poczytać i dać temu jeszcze jedną szansę, bo cenie sobie twórczość Davida Cage’a, a z moimi uprzedzeniami ciężko byłoby cieszyć się nadchodzącym Detroit: Become Human. Wyróżniłem tu trzy główne aspekty nieosiągalne dla maszyny.

Samoświadomość

Android świadomy tego, kim jest i co potrafi, to koszmar ludzi obawiających się buntu maszyn. Od kalkulatora, przez komputer, po zaawansowane roboty – wszystko to powstało, by nam pomagać w pracy, czyli nam usługiwać. Nikt nie chce, żeby jego smartfon rozpoczął zastanawiać się nad sensem swojego istnienia i stwierdzić, że teraz nie ma ochoty wykonywać połączeń. Telefonem chcemy dzwonić, pralka ma prać, a karp tylko jedno prawo – być smacznym. To ostatnie to oczywiście żart, ale mogło wywołać oburzenie, bo to jednak zwierzęta, żywe stworzenia, i większość osób potrafi im współczuć. Science fiction chce to współczucie przenieść na maszyny. Człowiek za tym idzie, bo od dziecka próbujemy postrzegać nieożywione obiekty jako żyjące i myślące istnienia, niezależnie czy to pluszak, postać z bajki czy nawet laptop (chyba że tylko ja krzyczę na swojego laptopa, kiedy zaczyna zwalniać…).

Robot może być świadomy tego, że jest tylko robotem i służy człowiekowi. Póki jednak nie odczuwa emocji (a o tym za chwilę), nie ma powodów, by pragnąć wolności… by pragnąć czegokolwiek. My kierujemy się w życiu zaspokajaniem potrzeb (fizycznych i psychologicznych), android takich potrzeb nie ma. Owszem, można stworzyć dla niego jakiś typ osobowości i taki przykładowy robot ekstrawertyk będzie próbował szukać kontaktu z innymi, ale ostatecznie kieruje nim zaprogramowana, a nie wewnętrzna potrzeba. Tym samym wracamy do punktu wyjścia – jeśli ktoś nie rozkaże robotom się zbuntować, same do tego nie dojdą. Nie potrafią improwizować czy działać poza ustanowionymi ramami.

Uczenie się

Ostatnio coraz częściej słychać o uczeniu się sztucznej inteligencji. Nie chodzi tu oczywiście o growe „uczenie się”, bo jak w Metal Gear Solid  V: The Phantom Pain sadzimy ciągle headshoty i potem słyszymy, że żołnierze zamówili specjalnie wzmocnione hełmy, to wiadomo, że jest to wcześniej zaplanowana opcja, którą odblokowaliśmy, przekraczając pewien próg. Chodzi tu o oddanie SI takich narzędzi, by mogła analizować dziejące się wokół niej wydarzenia i wyciągać wnioski. Tutaj powstaje pytanie – jest to rzeczywiście krytyczne myślenie czy po prostu zakamuflowane kopiowanie zauważonych schematów? Po przeczytaniu tego i owego, skłaniam się ku tej drugiej opcji.

Pamiętacie przykład sztucznej inteligencji Microsoftu z 2016 roku, której oddano konto na Twitterze? Robot imieniem Tay czytał wpisy innych i im odpowiadał, początkowo wyrażając ekscytację kontaktem z prawdziwymi ludźmi. Wystarczyła jednak niecała doba, żeby Tay zaczął wygłaszać rasistowskie, antysemickie i mizoginistyczne komentarze. W kolejnych tweetach czytaliśmy pochwały dla działań Hitlera, obscenicznie nawiązania do seksu i co rusz zmieniające się opinie na kontrowersyjne tematy. Ta PR-owa wpadka Microsoftu pokazała, że nawet SI stworzone przez firmę-giganta jest w stanie co najwyżej nieudolnie małpować innych, nie potrafiąc kreować własnych opinii.

Własne opinie to jednak bardzo skomplikowana sprawa. Co z wyciąganiem wniosków? Tutaj wchodzi pojęcie deep learning, czyli rodzaj uczenia maszynowego, gdzie najważniejsza jest analiza danych (wszelkich, nie tylko jednego rodzaju) i łączenie faktów. Jednym z ciekawszych przykładów tego procesu jest sztuczna inteligencja Google’a, która potrafiła nauczyć się grania w starsze gry wideo bez jakichkolwiek wskazówek oprócz „zdobądź jak najwyższy wynik”. Weźmy takie Breakout z Atari. Po dziesięciu minutach SI zrozumiało, że musi odbijać piłkę, by nie zaczynać od początku. Po dwóch godzinach robiło wszystko, by nie upuścić piłeczki, a po kolejnych dwóch przyszedł pomysł na stworzenie tunelu w cegiełkach i pozwolenie piłeczce odbijać się nad murem.

Co więcej sztuczna inteligencja nie tylko może się uczyć w taki sposób, ale i przekazywać sobie wiedzę, przyswajając ją kolektywnie. Po zrozumieniu podstaw jakiegoś problemu, mogą nad nim pracować jednocześnie liczne cyfrowe mózgi, a jeśli któryś rozgryzie nowy element, nową wiedzę zyskują automatycznie wszystkie. Jeden sposób nie działa, maszyna próbuje czegoś innego. Nie oznacza to jednak, że jest kreatywna.

Kreatywność

Na pewno słyszeliście kiedyś, że „wszystko już było i artyści teraz tylko powielają” czy „co najmniej 95% pracy nad utworem artystycznym to powielanie znanych autorowi schematów”. W tę teorię uwierzyli spece pracujący nad sztuczną inteligencją i pozwolili jej spełnić się artystycznie. Swoją drogą to kolejna próba zniszczenia naszej strefy komfortu – bo przecież roboty mogą nas zastąpić w zawodach, gdzie potrzebna jest siła czy mechaniczna powtarzalność, ale nigdy nie zostaną np. pisarzem… prawda? Cóż, SI potrafi dziś odczytywać teksty czy rozpoznawać obrazy i kształty, nic więc nie stoi na przeszkodzie, by poznać tysiące rozmaitych dzieł i na ich podstawie stworzyć coś swojego. No, może nie „swojego”, ale w danym stylu, swoistą mieszankę różnych źródeł.

Dwa lata temu w Internecie pojawiły się nagłówki o sztucznej inteligencji w Japonii, która napisała powieść i prawie wygrała nagrodę literacką imienia Hoshiego Shinichiego. Oczywiście nagłówki nagłówkami, ale w rzeczywistości SI wspierane było przez zespół badaczy, którzy nie tylko nadzorowali takie tworzenie, ale też wgrali gotowe słowa i frazy, z których czerpał komputer. Do tego nie „prawie wygrał”, a przeszedł wstępne eliminacje. Innym przykładem może być film Sunspring w reżyserii Oscara Sharpa, który wykorzystał scenariusz stworzony przez sztuczną inteligencję. Tu również program bazował na setkach wgranych scenariuszy filmów i seriali science fiction. Efektem tego jest dość absurdalna fabuła, w której głębszy sens odnajdą chyba tylko fani kina postmodernistycznego.

Tak czy inaczej, robot nie ma potrzeby tworzenia utworów artystycznych, a już na pewno nie wymyśli ich samodzielnie, bez analizy i kopiowania tych ludzkich. Musiałby czuć potrzebę poruszenia jakiegoś wątku, dać się ponieść wyobraźni, przelać na papier swoje emocje… a tego przecież zrobić nie może.

Emocje

Ostatecznie wszystko rozbija się o emocje. Ludzki mózg to nie tylko miejsce przechowywania danych, a przede wszystkim ośrodek naszych uczuć. Przeżyte doświadczenia nas kształtują i wpływają na naszą osobowość. Każdego dnia tworzymy samych siebie, przeżywamy przyjemne lub cięższe sytuacje i właśnie to, jakie emocje wywołują w nas te rzeczy, ma wpływ na to, kim jesteśmy. Nie można zaprogramować miłości w „mózgu” androida. Nie ma on potrzeby bliskości, miłości czy satysfakcji z pomagania innym, nie zniechęca się, gdy coś mu nie wychodzi, nie zaniecha polecenia, bo jest obrażony. No, chyba że ktoś umieści w jego kodzie takie polecenia.

Pewnie, może pewnego dnia stwierdzić „osoby usługujące komuś bez wynagrodzenia są niewolnikami, więc i ja jestem niewolnikiem”, ale bez emocji jest to zwykle stwierdzenie nieprowadzące do niczego. Robot sam dla siebie nie przeczyta ani nie napisze książki. Może wygrać w szachy z mistrzem świata, ale nie poczuje z tego faktu ani grama satysfakcji. Jeśli ktoś mu wręczy broń i nie przygotuje odpowiednich ograniczeń, w drodze do wykonania zadania taki android nie będzie miał problemu z odebraniem życia, bo moralność jest dla maszyny niczym. A jeśli kiedykolwiek będzie, to tylko dlatego, że człowiek stworzy uniwersalny zestaw zasad i jakimś cudem zaimplementuje go w każdej takiej SI. To jednak nigdy nie będzie szczere, wynikające z dobroci (lub wręcz przeciwnie) serca. A bez tego moralność nic nie znaczy.

Technologia ciągle idzie do przodu i możliwe, że kiedyś wymyślony zostanie system idealnie imitujący ludzkie uczucia. Sam szczerze wątpię, że androidy śnią o elektrycznych owcach i nie widzę scenariusza, w którym miałyby stać się równie emocjonalne i samoświadome co człowiek. Z drugiej strony wciąż mówimy o fantastyce naukowej, więc może jednak trzeba się zmusić i spróbować zaakceptować świat przedstawiony w Detroit: Become Human czy podobnych historiach, a przynajmniej podejść do niego z otwartym umysłem.

Jaszczomb Strona autora
cropper