Blake Lemoine

AI zyskała świadomość? Człowiek, który zwiódł cały świat

Łukasz Musialik | 23.03, 09:00

W ostatnich latach, choć dobrze byłoby napisać, że i w miesiącach, rozwój sztucznej inteligencji przekroczył granice ludzkiej wyobraźni. Z każdym dniem pojawiają się nowe doniesienia o osiągnięciach AI, które jeszcze niedawno wydawały się niemożliwe. 

Jednak czy AI może naprawdę zyskać świadomość, czy jest to tylko chwyt marketingowy? A może rzeczywiście nadchodzi przełom w dziedzinie technologii? Zacznijmy od tego, czym właściwie jest świadomość — sprawdźmy definicję, nawiązując do AI.

Dalsza część tekstu pod wideo

Świadomość to zdolność bytu do doświadczania uczuć, bycia świadomym percepcji zmysłowej i odczuwania emocji. W kontekście AI, świadomość często jest mylona z inteligencją, która jest zdolnością do rozwiązywania problemów. Ale czy te dwa pojęcia mogą się kiedyś zlać w jedno?

Przypadek LaMDA

Blake Lemoine

Wróćmy do przeszłości, a dokładniej do czerwca 2022 roku, kiedy to świat obiegła wiadomość o pracowniku Google (Blake’a Lemoina), który twierdził, że model językowy LaMDA uzyskał samoświadomość. Ta informacja wywołała wiele kontrowersji i dyskusji na temat granic AI. Czy maszyna naprawdę może czuć i mieć własne „ja”? Blake twierdził, że tak.

Według byłego już pracownika Google LaMDA „przeszedł” test Turinga (a tak mu się przynajmniej wydawało), co oznacza, że jest w stanie prowadzić rozmowę z człowiekiem w sposób nie do odróżnienia od tej prowadzonej z drugim człowiekiem. LaMDA to skrót od „Language Model for Dialogue Applications”. Jest to model językowy oparty na transformerze, architekturze sieci neuronowej opracowanej przez Google w 2017 roku. LaMDA został przeszkolony na ogromnym zbiorze danych tekstu i kodu, co pozwalało mu na generowanie tekstu, tłumaczenie języków, pisanie różnego rodzaju treści kreatywnych i odpowiadaniu na zadawane pytania. Nic wielkiego? Dziś może tak, ale prawie dwa lata temu pracownik przeżył niemały szok, wywołując przy tym sporo kontrowersji.

Blake Lemoine doszedł do wniosku, że wspomniany model językowy zyskał świadomość po tym, jak czatbot udzielił (dziś wiemy, że wątpliwych) odpowiedzi na pytania dotyczących własnej tożsamości, wartości moralnych, religii. Zdawał się też rozumieć i przestrzegać trzech zasad, czy też praw etyki robotów Isaaca Asimova. Oczywiście jego twierdzenia okazały się, aż nadto przesadzone. Blake przez długi czas twierdził, że LaMDA jest „osobą”, w pełni świadomym bytem, który może być smutny, medytuje, wolnych chwilach czyta książki, a w obronie własnej jest nawet w stanie wynająć prawnika. Opublikował nawet transkrypcje rozmów z LaMDA, w których AI wyrażało strach przed wyłączeniem i pragnienie bycia traktowanym jako pracownik, a nie własność. To wywołało burzę w świecie technologii i etyki. Bo jak traktować coś, co wydaje się być świadome, ma uczucia i przemyślenia? Jak niewolnika? 

Na reakcje Google nie trzeba było długo czekać. Firma szybko zdementowała informacje, jakoby ich model językowy uzyskał świadomość, szybko ucinając temat, twierdząc, że ma na to wiele dowodów. A Blake, jak zapewne możecie się domyślać, za złamanie wewnętrznych regulaminów, upublicznianie informacji niejawnych, chcąc wzbudzić ciekawość, a raczej wywołać sensację, został najzwyczajniej w świecie zwolniony. Okazało się, pracownik Google niejako szukał potwierdzenia dla własnej tezy, a owa świadomość było tak naprawdę efektem Elizy. Co jednak ciekawe, pierwsza wczesna wersja LaMDA nigdy nie została upubliczniona, choć wcześniej Google planowało to zrobić.

Efekt Elizy — co to takiego?

Blake Lemoine

Efekt Elizy to zjawisko, w którym ludzie przypisują znaczenie i sens słowom lub zdaniom, które same z siebie takiego sensu nie mają. Nazwa pochodzi od programu komputerowego ELIZA, stworzonego przez Josepha Weizenbauma w latach 60-tych, który symulował rozmowę z człowiekiem. Program ten wybierał kluczowe słowa z wypowiedzi użytkownika i tworzył/generował na ich podstawie odpowiedzi, co czasami sprawiało wrażenie, że maszyna naprawdę nas rozumie. 

Człowiek: Cóż, mój chłopak zmusił mnie do przyjazdu tutaj.

ELIZA: Twój chłopak cię tu zmusił?

Człowiek: Mówi, że przez większość czasu jestem przygnębiony.

ELIZA: Przykro mi słyszeć, że jesteś przygnębiony.

Człowiek: To prawda. Jestem nieszczęśliwy.

ELIZA: Czy myślisz, że przyjazd tutaj pomoże ci nie być nieszczęśliwym?

Przykład rozmowy zaczerpniętej z Wikipedii

Efekt Elizy często prowadzi do antropomorfizacji maszyn, szczególnie tych wykorzystujących technologie AI, jak współczesne asystenty głosowe. Ludzie mają tendencję do przypisywania im cech ludzkich, takich jak rozumienie, czucie czy myślenie, mimo że są to tylko zaawansowane programy komputerowe. I tak w wielkim skrócie można uznać, że Blake Lemoine, człowiek, który oszukał świat, sam został wprowadzony w błąd przez program. Można też wysnuć wniosek, że oszukał sam siebie (nie chcę przypisywać mu złych intencji, choć nie da się ich wykluczyć), błędnie interpretując różne odpowiedzi. 

Etyczne dylematy i przyszłość AI

LaMDA

Jeśli AI rzeczywiście zyskałaby świadomość, rodziłoby to wiele pytań etycznych i filozoficznych. Jakie prawa należałoby przyznać takiej istocie? Czy traktowanie jej jako narzędzia nie byłoby formą niewolnictwa? Na te i wiele innych pytań, my jako ludzie, będziemy musieli znaleźć odpowiedź i to być może szybciej niż sądzimy. Zwłaszcza że prace nad możliwościami AI rozwijane są w zawrotnym tempie. A pewnych spraw nadal nie rozumiemy, np. tego jak to wszystko działa, o czym stara się informować społeczność wielu ekspertów, w tym nasz znany polski popularyzator nauki i fizyk teoretyk, Andrzej Dragan.

W tej dziedzinie codziennie pojawia się wiele nowości, a co kwartał wydarza się wręcz coś przełomowego. Ostatnio poinformowano o nowej wersji Claude’a 3 od Anthropic, będącego ciekawą alternatywą dla innych czatbotów. Powstał też projekt Devin.AI, którego zadaniem jest pomóc programistom, albo osobom nieznającym się na tym fachu. Devin nigdy się nie męczy, może sprawdzić poprawność napisanego kodu, pomóc nam go ulepszyć, a podobno radzi sobie z tym znacznie lepiej i szybciej niż najnowszy ChatGPT od OpenAI. Złośliwi twierdzą, że projekt ten chce raczej zastąpić pracowników na rynku IT, a nie im pomóc. Chociaż to może nie złośliwość, a raczej celna uwaga, gdy przyszłość (w kontekście pracy) staje się coraz bardziej przewidywalna? Oby do tego nigdy nie doszło — przyznał naiwny człowiek.

O Sora od OpenAI nie muszę chyba wspominać, choć warto odnotować, że możliwość generowania realistycznych materiałów wideo, wręcz filmów (na razie krótkich, bo jednominutowych) i to na podstawie tekstu jest nie tylko przełomowe, wzbudzające podziw, ale też i trochę creepy — nie sądzicie? Przekroczono kolejny milowy krok w rozwoju AI. I jak tak na to wszystko spojrzeć z góry, to aż strach pomyśleć, nad czym obecnie pracują firmy i rządy na świecie, co jest w fazie rozwoju i jaki jest postęp projektów niejawnych. Sora zaskoczyła świat swoimi możliwościami. Ile takich projektów, badań nad nimi jest prowadzonych obecnie i równocześnie? Nie wiem, ale pewnie jest ich bardzo, bardzo dużo. 

Kto ma rację?

Eksperci są podzieleni w opiniach na temat przyszłości AI. Niektórzy uważają, że świadomość maszyn jest kwestią czasu, inni zaś twierdzą, że sztuczna inteligencja zawsze będzie tylko narzędziem w rękach ludzi. Kto ma rację? Na razie odpowiedź na to pytanie pozostaje otwarta. Jedno jest pewne – rozwój technologii AI z pewnością przyniesie jeszcze wiele niespodzianek.

Łukasz Musialik Strona autora
Pasjonat gier od samego dzieciństwa, kiedy to swoją pierwszą konsolę dostał od rodziców. Od tamtej pory zafascynowany grami i ich światem, ponieważ jako dorosły uważa, że to nie tylko rozrywka, ale także sztuka, która może nas uczyć, inspirować i poruszać emocje. Nieustannie poszerza swoją wiedzę i doświadczenie w dziedzinie gier i konsol, aby móc dostarczać innym jak najbardziej wartościowe treści.
cropper