Epoka ludzi, czas robotów

Jedni widzą w niej szansę na lepsze jutro, podczas gdy inni – zwiastun apokalipsy. Jednak zanim chwycimy za pochodnie lub zaczniemy wznosić pomniki, zastanówmy się, czym właściwie jest sztuczna inteligencja.

Aleksander Łukaszewicz

Ile potrzeba, żeby wygrać w szachy z przeciętnym człowiekiem? 200 linijek kodu plus dwie biblioteki programistyczne, w tym jedna zawierająca graficzne przedstawienie planszy i pionków. Bardzo mało jak na program zaliczany do grona sztucznych inteligencji. Rozważa on ruchy tylko kolejkę do przodu, a decyzję o nich opiera na wyniku punktowym kolejnego posunięcia (dodatnie punkty za zbicie pionka przeciwnika, ujemne za stratę własnego oraz dodatkowe za bardziej lub mniej strategiczne ustawienie pionków na planszy). Choć nie ma wtedy mowy o stosowaniu zawiłych taktyk i szansach pokonania mistrza szachowego, program ten nie popełni też oczywistych błędów – a to więcej, niż dałoby się powiedzieć o statystycznym niedzielnym graczu. Można by dojść do wniosku, że skoro tak prosty program jest w stanie pokonać człowieka, to bardziej skomplikowane maszyny z powodzeniem mogą go zastąpić na dowolnym stanowisku pracy. To stwierdzenie nie byłoby ani prawdziwe, ani fałszywe – leżałoby gdzieś pomiędzy.

Dopasuj brakujący obrazek

Przed ustaleniem, czym jest sztuczna inteligencja, należy znaleźć odpowiedź na inne pytanie: czym jest inteligencja człowieka?. To zadanie wydaje się proste, choć ilu psychologów, tyle różnych definicji. Gdyby zebrać je wszystkie w całość, inteligencją określałoby się zdolność do przetwarzania informacji, dostrzegania zależności i schematów, wyciągania wniosków oraz uczenia się, a także adaptację do nowych warunków i wykonywanie w nich zadań. Oznacza to, że o inteligencji świadczy nie tylko umiejętność dopasowywania czwartego obrazka, jak sugerują testy IQ, a także racjonalne myślenie.

Przez sztuczną inteligencję można więc rozumieć maszynę lub program, który ma za zadanie symulować myślenie człoCzasem odbywa się to przez podejmowanie decyzji, między innymi w sytuacjach, których nie da się opisać stałym algorytmem lub brak jest wszystkich danych. Niemniej należy pamiętać, że programy jedynie pozorują inteligencję przez odpowiednie działania; nie mają jej w rzeczywistości. Dr hab. Adrian Horzyk z Katedry Automatyki i Inżynierii Biomedycznej Akademii Górniczo-Hutniczej im. S. Staszica w Krakowie wyjaśnia to na przykładzie: Załóżmy, że jakiś człowiek, niepostrzegany jako bardzo inteligentny, podsłuchał rozmowę i dowiedział się, jak może pewien cel sprytnie, łatwo i szybko osiągnąć. Postanowił to zrobić. Zrobił i odniósł duży sukces. Z punktu widzenia obserwatorów postąpił bardzo inteligentnie, ale on nie wymyślił tego sposobu działania, lecz tylko wykonał to, co usłyszał (pewien algorytm, metodę lub technikę). Czy można więc powiedzieć, że ma wysoce rozwiniętą inteligencję, czy tylko jego działanie było wysoce inteligentne? To, co zrobił, wymyślił natomiast inny człowiek, którego on podsłuchał. Czy o tym człowieku możemy powiedzieć, że jest wysoce inteligentny? Tak, gdyż do wymyślenia tego musiał wykorzystać wiedzę, umiejętność wnioskowania, kojarzenia faktów. Podobnie jest z komputerami. One generalnie odtwarzają inteligentne algorytmy opracowane przez inteligentnych ludzi, ale raczej na razie takich programów same nie tworzą.

To tylko matematyka

To wyjaśnienie odziera sztuczną inteligencję z otoczki magii i tajemnicy, która ją spowija. Z tego dysonansu rodzi się tzw. efekt sztucznej inteligencji. Polega on na tym, że gdy tylko problem zostanie rozwiązany przez maszynę, nagle okazuje się, że był w zasadzie trywialny. Za każdym razem, kiedy coś zrozumiemy, to przestaje być magiczne; mówimy „och, to tylko obliczenia”, narzeka były kierownik Laboratorium Sztucznej Inteligencji Instytutu Technologicznego w Massachusetts Rodney Brooks. Z kolei informatyk Larry Tesler określił to słowami: inteligencją jest wszystko, czego maszyny jeszcze nie dokonały. Natomiast Stuart J. Russell i Peter Norvig w swojej książce Artificial Intelligence. A Modern Approach zdefiniowali sztuczną inteligencję jako naukę o inteligentnych agentach. Są to programy, które na podstawie danych pobranych z otoczenia podejmują decyzje prowadzące do maksymalizacji prawdopodobieństwa sukcesu. Mogą to robić na wiele sposobów. Najprostszym z nich jest stosowanie się do prostych poleceń jeśli… to…, które można rozpisać w całe drzewka. Trochę bardziej skomplikowane jest stosowanie logiki rozmytej. Polega ona na tym, że pomiędzy stanami prawda i fałsz rozciąga się szereg innych wartości, mówiących, na ile dana wartość przynależy do zbioru. W ten sposób temperatura 23 stopnie może być postrzegana jako całkiem ciepło i ledwo gorąco – czyli pasują do niej dwa określenia, ale z różną mocą. Inną często stosowaną metodą są sieci neuronowe, które są inspirowane układem nerwowym organizmów żywych. Michał, który na studiach ma do czynienia m.in. z uczeniem maszynowym, opisuje je w możliwie prostych słowach: Polega to na symulowaniu neuronów, ułożonych warstwami. Za wyniki obliczeń wykonywanych przez sieć odpowiedzialne są wagi przypisane do każdego neuronu indywidualnie, modyfikowane w trakcie procesu uczenia.

Co jest łatwe, co jest trudne

Ze względu na dużą różnorodność metod sztucznej inteligencji, zakres rozwiązanych problemów jest bardzo szeroki. Zadania, jakie ma wypełniać sztuczna inteligencja, można podzielić na trzy grupy. Pierwszą z nich określa się zadania przyziemne, jak przetwarzanie języka naturalnego, rozpoznawanie obrazu i poruszanie się, czyli czynności, które człowiek wykonuje automatycznie. Druga obejmuje problemy natury matematycznej i logicznej, takie jak dowodzenie teorii czy gra w szachy, warcaby czy go. Ostatnia grupa to zadania mające na celu naśladowanie ekspertów w danej dziedzinie: analiza finansowa, diagnostyka medyczna, a nawet kreatywność. Co ciekawe, to nie trzecia, a pierwsza grupa sprawia informatykom najwięcej trudności.

To zjawisko nazwano paradoksem Moraveca. Polega on na tym, że skomplikowane wyzwania wymagają niewielkiej mocy obliczeniowej, podczas gdy proste zadania – olbrzymiej. Moravec w swojej książce Mind Children określił to słowami: Stosunkowo łatwo sprawić, żeby komputery przejawiały umiejętności dorosłego człowieka w testach na inteligencję albo w grze w warcaby, ale jest trudne albo wręcz niemożliwe zaprogramowanie im umiejętności rocznego dziecka w percepcji i mobilności. Dalej tłumaczy to, opierając się na teorii ewolucji: Jesteśmy wszyscy wybitnymi olimpijczykami w dziedzinie percepcji i zdolności motorycznych. Tak dobrymi, że trudne zadania wydają nam się łatwe. Myśl abstrakcyjna jednak jest nową zdolnością, być może młodszą niż 100 tys. lat. Nie opanowaliśmy jej jeszcze dobrze. Nie jest ona sama z siebie wcale trudna – tylko taka się wydaje, gdy my ją wykonujemy. Rozpoznawanie przedmiotów i ocena emocji, czyli działania, które człowiek wykonuje podświadomie, są z ludzkością od milionów lat. Jednocześnie matematyka i szachy są stosunkowo młodymi dziedzinami. Dlatego, zgodnie z paradoksem Moraveca, maszyna z łatwością udowodni skomplikowane twierdzenie matematyczne, ale trudność sprawia jej odróżnienie gawrona od sekretarzyka.

Chyba się nie dogadamy

Najlepszym dowodem na to, że prosta dla człowieka umiejętność może nastręczyć maszynie wiele trudności jest to, że do teraz żadna z nich nie przeszła testu Turinga. Test ten ma sprawdzać zdolność robota do posługiwania się językiem naturalnym, a pośrednio również umiejętność myślenia w sposób podobny do ludzkiego. Przeprowadza się go następująco: ludzki sędzia rozmawia z dwiema stronami. Jedna z nich jest człowiekiem, podczas gdy druga to maszyna. Jeśli po kilku minutach konwersacji sędzia nie będzie w stanie stwierdzić, czy rozmawia z programem, czy z inną osobą, uznaje się, że maszyna przeszła test. Oczywiście obie strony muszą zachowywać się w sposób jak najbardziej ludzki.

I właśnie na to ostatnie słowo należy zwrócić szczególną uwagę, gdyż nie wszystkie ludzkie zachowania są inteligentne i odwrotnie. Człowiek, pisząc na komputerze, często popełnia literówki lub celowo opuszcza wielkie litery i znaki interpunkcyjne. Poza tym ma wiele innych wad: myli się, kłamie, łatwo sprowokować go wyzwiskami. Nie ma również szczegółowej wiedzy na wiele tematów i nie potrafi szybko wykonać mniej lub bardziej skomplikowanych działań matematycznych. Dlatego aby przejść test Turinga, maszyna musiałaby nauczyć się ukrywać własną inteligencję i symulować błędy. To umniejszyłoby jej przydatność na innych polach – po co komu program tak omylny jak człowiek?

Dlatego przejście testu Turinga nie jest zazwyczaj priorytetem w przypadku tworzenia programów przetwarzających język naturalny – wystarczy samo rozumienie wprowadzanych poleceń i ich wykonywanie. Każdy, kto zetknął się z wirtualnym asystentem, wie, że porozumienie się z maszyną nie jest proste. Poza z góry wprowadzonymi, dowcipnymi odpowiedziami nie można liczyć na jakąkolwiek rozmowę. Nawet wyrażenie polecenia w sposób zrozumiały dla programu zwykle wymaga kilku prób, gdyż systemowi potrzebne są zazwyczaj komendy o konkretnej strukturze zdania. Obecnie z wirtualnymi asystentami można się zetknąć głównie na infoliniach, ale jeszcze kilka lat temu powszechnie spotykało się ich na stronach internetowych, gdzie między innymi odpowiadali na pytania i pomagali wyszukiwać produkty. Przy prostych sprawach działali całkiem sprawnie. Przy bardziej skomplikowanych można było koniec końców otrzymać odpowiedź: Oczywiście, że się nie dogadamy. W końcu ja jestem maszyną, a ty tylko człowiekiem. Zapewne z tego powodu teraz częściej oferowane są czaty z pracownikiem call center.

To się rusza, toż to żyje!

Innym polem, na którym maszyny mają problemy, jest niezalgorytmizowany ruch, czyli poruszanie się inaczej niż po z góry wyznaczonej trasie. W internecie można znaleźć tysiące filmików, na których roboty najróżniejszych kształtów i wielkości ponoszą porażki, wykonując najprostsze czynności. Tracą równowagę, wypuszczają rzeczy z rąk, wpadają na ściany. A zapewne nawet mniej niż połowa z nich ma chociaż najprostszą sieć neuronową.

Naukowcy nie szczędzą jednak starań, aby poruszający się samodzielnie robot stał się rzeczywistością. Jednym z efektów ich pracy jest stworzony przez japoński koncern Honda robot ASIMO. Jego nazwa pochodzi od angielskiego Advanced Step in Innovative Mobility, a jej podobieństwo do nazwiska słynnego pisarza science fiction Isaaca Asimova nie było zamierzone. Pierwsze prototypy robotów Hondy sięgają już 1986 r., a aktualna wersja ASIMO została zaprezentowana w 2011 r. i cały czas dodawane są do niej nowe funkcje. Robot mierzy 130 cm, waży 48 kg i przypomina małego astronautę. Docelowo ma pomagać w życiu codziennym człowieka: podawać do stołu, wykonywać prace biurowe a także asystować niepełnosprawnym. W siedzibie Hondy często przejmuje rolę przewodnika i prowadzi gości do odpowiednich sal. ASIMO porusza się bardzo sprawnie: potrafi chodzić do przodu, do tyłu i na boki, wchodzić po schodach, biegać, skakać, a nawet grać w piłkę nożną. Dłonie i ręce ma równie mobilne. Ma na nich czujniki, które pozwalają mu dopasować siłę chwytu w zależności od tego, czy ściska komuś dłoń, czy niesie tacę z napojami.

Na swojej stronie internetowej twórcy chwalą się: całkiem nowy ASIMO awansował z „automatycznej maszyny” do „autonomicznej maszyny” zdolnej podejmować decyzje wpływające na jej zachowanie tak, aby współgrało z jej otoczeniem, w tym z poruszaniem się ludzi. Honda uznała, że aby móc określić robota takim terminem, musi on spełniać kilka wymagań. Powinien być w stanie zachować równowagę nawet w przypadku działania siły zewnętrznej oraz pobierać informacje z otoczenia i na ich podstawie wnioskować, co się zaraz wydarzy (np. gdzie zaraz będzie poruszający się człowiek). Jednak najważniejszą cechą, jaką musi się wyróżniać, jest umiejętność podejmowania decyzji o dostosowaniu się do zmian w środowisku bez pomocy operatora. Jeśli wierzyć zapewnieniom koncernu, robot dobrze radzi sobie ze wszystkim, jednak tylko przez około godzinę – po tym czasie należy go naładować.

Krok po kroku

Z kolei sztuczna inteligencja, sterując wirtualnym ciałem, radzi sobie z reguły przyzwoicie, czego dowód mamy w grach komputerowych. Bohaterowie niezależni, czyli każda postać, w którą się nie wcielamy, sprawnie poruszają się z punktu A do B, biorąc pod uwagę zmieniające się środowisko. Oczywiście pod warunkiem, że program jest nauczony samych ruchów. W przeciwnym przypadku wygląda to dość niezgrabnie. W lipcu tego roku firma Google pochwaliła się, że rozwijany przez nią program DeepMind sam nauczył się poruszać, i to trzema różnymi awatarami – kulką na czterech nogach, korpusem z nóżkami i uproszczonym modelem człowieka. Jednym z założeń eksperymentu było nieposiadanie przez program wiedzy na temat sposobu poruszania się ludzi i zwierząt. Miał do dyspozycji tylko modele postaci, wirtualne sensory i… czas. Metodą prób i błędów nauczył się poruszać, pokonywać różny rodzaj terenu i omijać przeszkody. Projekt DeepMind skupia się na wykorzystaniu podejścia uczenia ze wzmacnianiem, „reinforcement learning”, które nagradza poprawne reakcje systemu neuronowego. Takie nagrody przekładają się na zmiany wag połączeń pomiędzy neuronami, co sprawia, że przy kolejnych próbach te połączenia bardziej skutecznie będą powodowały podobne pobudzenia. Jest to więc jedna z ważnych strategii uczących, którą można zaobserwować również w biologicznych sieciach neuronowych – wyjaśnia proces nauki programu dr hab. Adrian Horzyk. Sposób, w jaki program się porusza, można uznać za co najmniej kreatywny. A może, jak zastanawiają się redaktorzy portalu Tech Insider, DeepMind, wie coś, czego my nie wiemy?

Samochwała w kącie stała

Programy wykorzystujące metody sztucznej inteligencji ciągle osiągają większe i mniejsze sukcesy. Komputery zwyciężały mistrzów w szachy już od 1997 r., a w 2016 r. AlphaGo, sztuczna inteligencja stworzona i wytrenowana przez Google, ograła 4:1 mistrza świata w go. Tymczasem naukowcy z Uniwersytetu w Cincinnati opracowali program ALPHA sterujący myśliwcem, który w symulacjach pokonał ludzkich pilotów, nawet gdy przeciwnik walczył w przewadze liczebnej lub z lepszym sprzętem. Z kolei Watson należący do IBM już w 2013 r. w testach osiągnął 90 proc. skuteczność w diagnozowaniu raka płuc, podczas gdy lekarze uzyskali rezultat zaledwie 50 proc. Teraz jest szkolony nie tylko do onkologii, lecz także do medycyny ogólnej.

Maszyny potrafią być również zaskakująco kreatywne. Aiva tworzy muzykę klasyczną, używaną niekiedy w grach i filmach. Hitoshi Matsubara – profesor z Uniwersytetu Przyszłości w Hakodate – i jego zespół stworzyli sztuczną inteligencję, która napisała książkę. Co więcej, ten utwór przeszedł pierwszy etap prestiżowego konkursu literackiego. Inny komputerowy artysta na podstawie poprzednich dzieł George’a R. R. Martina napisał pięć pierwszych rozdziałów Wichrów Zimy. Z kolei Cybernetyczny Poeta Raya Kurzweila pisze wiersze inspirowane dowolnym artystą zdolne zmylić prawdziwych krytyków.

Jednak większość z przytoczonych tu przykładów to raczej przechwałki i pokazy umiejętności, na razie niemożliwe do powszechnego zastosowania w obecnej formie. ALPHA nie poprowadzi jeszcze prawdziwego samolotu, Watson nie zastąpi onkologa. Aiva stworzy utwór, ale dostosować go do szczegółowych wymagań klienta musi człowiek. Hitoshi Matsubara przygotował wcześniej fabułę dla swojego programu, a sztucznie stworzone Wichry Zimy wyróżniały się wieloma błędami gramatycznymi, brakiem jakiejkolwiek logiki oraz niezgodnością z oryginalną serią. Cybernetyczny Poeta z kolei radzi sobie wspaniale tak długo, jak długo ma bazę danych z wierszami innych twórców, z której może czerpać.

Przerosnąć mistrza

Oczywiście nie oznacza to, że maszyny nie potrafią robić niczego. Wręcz przeciwnie, w wielu dziedzinach przerastają ludzi, a w niektórych osiągnęły poziom, którego nie można przebić. Do ostatniej grupy należą jednak tylko w pełni zalgorytmizowane gry, jak kółko i krzyżyk czy warcaby angielskie, oraz kostka Rubika. Ma ona 4×1019 możliwych pozycji, a ich rozwiązanie zajęłoby zwykłemu komputerowi 35 lat. Zamiast domowego komputera użyto jednak serwerów Google, więc czas ten skrócono do kilku tygodni. Udowodniono również, że każdą pozycję kostki, nieważne, jak bardzo pomieszaną, można rozwiązać w 20 ruchów lub mniej. Takie rozwiązanie nazywane jest boskim algorytmem. Nie ma to jednak dużo wspólnego z inteligencją. To bardziej jak czytanie instrukcji obsługi: jeśli widzisz kostkę w tym ustawieniu, postępuj w następujący sposób.

Są również bardziej praktyczne zastosowania sztucznej inteligencji, wymagające od programów większej autonomiczności. Istnieje mnóstwo programów diagnostycznych i eksperckich wykorzystywanych na co dzień. Składają się one z bazy danych i „silnika”, który analizuje ją, szukając odpowiedzi na zadane pytanie. Służą między innymi do prognozowania pogody, analizy notowań giełdowych, wycen kosztów naprawy pojazdów, a nawet udzielania porad prawnych. A co najważniejsze – są tańsze niż człowiek.

Robopokalipsa nadciąga?

Sztuczna inteligencja ma szerokie zastosowanie w ogromnej liczbie dziedzin do tego stopnia, że mimo wymienionych wcześniej wad często mówi się o zamianie pracowników na komputery. Profesor Moshe Vardi z Uniwersytetu Rice przewiduje, że w ciągu 30 lat maszyny będą w stanie wykonać każde zajęcie, a poziom bezrobocia do 2045 r. wzrośnie do 50 proc. Wśród młodszego pokolenia również można usłyszeć głosy obawy. Perspektywa życia spędzonego wyłącznie na przyjemnościach wydaje bardzo kusząca, jednakże praca jest istotną częścią ludzkiego życia, i jeśli nie znajdziemy ludziom nowego zajęcia, to rozwój sztucznej inteligencji może mieć katastrofalne skutki dla ludzkości – mówi Piotr, student automatyki i robotyki.

Inne zdanie na temat „robopokalipsy” ma James Surowiecki, który na portalu Wired powołuje się na historię sprzed kilku lat, kiedy do użytku wchodziły bankomaty: Bankomat to książkowy przykład maszyny, która zastępuję pracę człowieka. Po raz pierwszy wprowadzone do użytku około 1970 r., bankomaty zaczęły być powszechnie dostępne w późnych latach 90. Dziś w USA jest ponad 400 000 takich maszyn. Jednak, jak udowadnia ekonomista James Bessen, pomiędzy 2000 a 2010 r. wzrosła liczba bankierów. Nawet jeśli średnia liczba bankierów na oddział spadła, bankomaty sprawiły, że otwieranie nowych oddziałów jest tańsze, więc banki robią to częściej. Pozostaje również kwestia nowych miejsc pracy dla serwisantów. Ekonomia przystosowała się do bankomatów, ludzie zaadaptowali je i przekształcili na swoją korzyść; automatyzacja nie oznaczała masowych zwolnień.

Odcienie szarości

W mediach najlepiej działają czarno-białe przekazy. Jeśli maszyny zabiorą komuś pracę, to nam wszystkim. Nie ma rozróżnienia na zawody – tak samo przerażony powinien być zarówno architekt, kucharz, jak i kierowca autobusu. Rzeczywistość zawiera jednak wiele odcieni szarości. Prof. dr hab. Mariusz Flasiński z Katedry Systemów Informatycznych Uniwersytetu Jagiellońskiego uważa, że profesje, które nie muszą się obawiać technologii, to te wymagające wysokiej kreatywności, na przykład naukowiec i artysta, a także te, które jak lekarz, sędzia czy nauczyciel, wymagają również wysokiego stopnia inteligencji społecznej i emocjonalnej. Jednocześnie nie wyklucza zautomatyzowania zawodów takich jak robotnik rolny, pracownik transportu, przemysłu czy (częściowo) handlu. Jeśli założymy jednak dalszy dynamiczny rozwój robotyki i sztucznej inteligencji, to możemy przypuszczać, że wydarzy się to dopiero w perspektywie 15–20 lat. Profesor swoją wypowiedź kończy następująco: Gdzieś pośrodku sytuują się zawody szeroko pojętego obszaru usług wymagające niestandardowych i specyficznych interakcji z człowiekiem. Można wyobrazić sobie robota-kelnera, ale nie wiem, czy chciałbym z nim pokonwersować w restauracji na temat dobrych roczników Pouilly-Fuissé dostępnych w restauracyjnej piwniczce, aby następnie otworzył mi jedno z nich do kolacji.