Największe wydarzenie w historii ludzkości

Pojawienie się nowej istoty – generalnej sztucznej inteligencji – przyćmi zarówno rewolucję przemysłową, jak i informatyczną. Musimy się do tego przygotować, bo Świat już nigdy nie będzie taki sam

Roman Mazurenko zmarł w wypadku samochodowym w 2005 roku. Jego narzeczona i znajomi utrzymują jednak z nim kontakt. Rozmawiają, opowiadają sobie swoje codzienne doświadczenia. Tęsknią za sobą. Mama Romana wreszcie miała dużo czasu, żeby lepiej poznać swojego syna. Roman nie ma jednak ciała, „żyje” w systemie komputerowym – sieci neuronowej, utworzonej przez jego dziewczynę na podstawie całej korespondencji, jaką prowadził w swoim życiu. Pytanie, czy Roman jest człowiekiem, jednak nie pada. Wszyscy zdają sobie sprawę, że jest tylko cieniem prawdziwego mężczyzny. Jednak w kontakcie z tą sztuczną inteligentną istotą musimy zastanowić się nad innym: skoro nie jest człowiekiem, to kim jest?

Czy jedna z najbardziej pojemnych teorii socjologicznych, teoria aktora-sieci Bruno Latoura, jest w stanie wyjaśnić ten fenomen? W swoich analizach na temat sprawczości, nadaje tę cechę nie tylko ludziom. W tym paradygmacie w sieciach relacji i interakcji biorą udział więc zarówno aktorzy ludzie, jak i aktorzy nie-ludzie. Znaczenie włączenia tej kategorii do analiz socjologicznych było dużym przełomem. Pozwoliło bowiem lepiej zrozumieć, jak na przykład nowe technologie wpływają na sieci społeczne, jak zmieniają je na równi z inteligentnymi istotami. W tej perspektywie rozważania na temat sztucznej inteligencji wydają się szczególnie interesujące. Bo gdzie zaklasyfikować ten technologiczny fenomen? To zależy od poziomu jego rozwoju. Gdy mowa o tzw. wąskiej sztucznej inteligencji – mamy niewątpliwie do czynienia jedynie z kolejnym przejawem rozwoju technologicznego ludzkości, z niezwykłym, ale zgodnym z teorią aktorem nie-człowiekiem. Kiedy zaś mówimy o w pełni rozwiniętej świadomej sztucznej inteligencji, rozciągliwa teoria aktora-sieci okazuje się niewystarczająca. Bo czy inteligentną istotę można nazwać aktorem nie-człowiekiem? Co decyduje o człowieczeństwie? Czy człowiek pozbawiony połowy ciała jest tylko w połowie człowiekiem?

To są oczywiście pytania filozoficzne, ale pokazują, jak powstanie generalnej sztucznej inteligencji zmieni sposób patrzenia na posiadany przez nas zasób wiedzy i metod jej porządkowania. Nawet niezwykle pojemna teoria Latoura będzie musiała powołać do życia nowy typ aktora post-człowieka (to moja własna propozycja nazwy). Stojąc nad tym wyzwaniem zarówno socjologia, jak i psychologia, politologia, ekonomia itp. powinny przygotowywać się na przełom, który na pewno nastąpi. Powstanie socjologii sztucznej inteligencji, psychologii sztucznej inteligencji, a nawet medycyny sztucznej inteligencji (!) jest tylko kwestią czasu.

Maszyna rozumna

Powagę tego faktu można wyczuć w dyskusjach i działaniach toczących się w sieciach społecznych o coraz większym zasięgu. Niedawno wydany raport Białego Domu „Preparing for the future of artificial intelligence” jest jedną z takich szerokich prób uporządkowania wiedzy, która obecnie jest rozproszona między filozofią, informatyką i biznesem. Już we wstępie tego raportu czytamy, że powstał on, by „przygotować Stany Zjednoczone do przyszłości, w której sztuczna inteligencja gra coraz większą rolę”. Wskazuje się więc potencjalne korzyści, ale i zagrożenia, płynące z rozwoju tej technologii.

Sztuczna inteligencja to nie tylko science fiction – już dziś mamy z nią do czynienia

Sztuczna inteligencja to nie tylko science fiction – już dziś mamy z nią do czynienia. W dużym skrócie sztuczną inteligencję (dalej – AI) można podzielić na 4 typy, wynikające z postępu technologicznego i zdobywania autonomii przez ten artefakt.

Pierwszy typ AI przedstawia systemy, które myślą jak ludzie i opisuje działania kognitywnej architektury systemów komputerowych oraz sieci neuronowe. Jest więc to rzeczywistość, w której już żyjemy – inteligentnych wyszukiwarek, botów – jak Roman Mazurenko – i systemów wspomagających pracę. Choć nadal nie do końca ją rozumiemy. AI oparta na sztucznych sieciach neuronowych, a więc strukturach zbudowanych na podobieństwo tych, które mamy w naszych mózgach (neurony połączone synapsami), ciągle jest zagadką. Sieć taka „uczy się” pewnych algorytmów zachowania, ale proces przetwarzania przez nią danych jest dla programisty nie do końca ujawniony – jest tzw. czarną skrzynką. Słowem, sieć samodzielnie przetwarza informacje, podając oczekiwany wynik, ale jak dokładnie to robi – nie wiemy. Stąd potrzeba zasilenia takiej sieci w dużą ilość danych, by możliwe było jak największe usprawnienie procesu uczenia. Taka AI jest więc wysoce wyspecjalizowanym przyrządem analitycznym, potrafiącym nawet, jak wyszukiwarka Google, analizować fotografie i umożliwiać wyszukanie w dużym zbiorze zdjęć na przykład tylko tych ze świąt Bożego Narodzenia. Jednak taka AI nie jest w stanie wykonać operacji większych od tych, do jakich została zaprojektowana, a jej „inteligencja” pozostaje wypadkową wiedzy, jaką została zasilona.

Drugim typem będzie system AI, który zachowuje się jak człowiek. Normą określającą ten stan rozwoju będzie zdany test Turinga, czyli procedura, która pozwala na określenie, czy maszyna osiągnęła zdolność posługiwania się językiem naturalnym i na ile opanowała „ludzki” sposób myślenia, oparty na symbolach i abstrakcji. Ten poziom osiągnąć jest znacznie trudniej, jednak w 2014 roku program „Eugene Goostman” zdał test Turinga, podając się za 13-letniego mieszkańca Ukrainy… Trzeci typ AI obrazuje system, który będzie nie tylko myślał i działał jak człowiek, ale myślał racjonalnie, rozwiązując logiczne dylematy. Jednak najbardziej rozwiniętym, czwartym typem, będzie AI, która dodatkowo będzie potrafiła zachowywać się racjonalnie – wchodząc w interakcje z ludźmi, planując, wyciągając wnioski, ucząc się i podejmując autonomiczne decyzje. Dwa ostatnie typy opisują więc androida, którego znamy z literatury futurologicznej i filmów – rozumną istotę, zdolną do zachowania i myślenia jak człowiek.

General AI to inteligencja posiadająca samoświadomość, myśląca i zachowująca się co najmniej tak, jak potrafi to czynić człowiek

Podobnych podziałów jest oczywiście więcej i pokazują one, jak za pomocą ludzkiej optyki przyrównujemy rozwój, jak by nie patrzeć – potencjalnej zupełnie nowej inteligentnej istoty. Dlatego dla naszych rozważań bardziej przydatny będzie podział na tzw. wąską AI i generalną AI. Wąska AI to zespół różnych systemów, z których już dziś korzystamy, a które opisane są popularnym hasłem „Big Data”. Już wspomniałem o analizie zdjęć przez wyszukiwarki internetowe. Podobnie wąska AI jest systemem stosowanym do wspomagania zakupów, analizy kont bankowych. Systemy te działają także jako ukryta część naszego codziennego życia, sterując światłami drogowymi lub analizując ruch na autostradach. Są to jednak wąskie „byty” – w takim rozumieniu, że potrafią wykonać jedynie ściśle określone zadania. Nie ma wątpliwości, że ludźmi nie są. Podobnie można zbudować taki system służący jedynie zdaniu testu Turinga, ale nadal będziemy mieli do czynienia jedynie ze sztuczną inteligencją, pozbawioną autonomii.

Ja, General AI

Zupełną nowością będzie jednak stworzenie generalnej sztucznej inteligencji. To ona będzie tym nowym aktorem społecznym, o którym wspomniałem we wstępie. General AI to bowiem inteligencja posiadająca samoświadomość, myśląca i zachowująca się co najmniej tak, jak potrafi to czynić człowiek. Co najmniej, bo zasilona nieskończonym strumieniem danych (to dzieje się już dziś), będzie posiadała już na początku swojego istnienia wiedzę nie wyłącznie jednego człowieka, a milionów. Wiedzę nieograniczoną też czasem, bo pochodzącą z wielu różnych epok. Jak jednak uważają twórcy raportu dla Białego Domu, powstanie takiej AI jest kwestią co najmniej kilku dekad, bo choć komputer Deep Blue prawie 20 lat temu wygrał z mistrzem szachowym Garrym Kasparovem, a AlphaGo niedawno pokonał człowieka w znacznie bardziej abstrakcyjnej i wymagającej „intuicji” grze go, to rozwój AI nie jest taki, jak oczekiwano jeszcze kilkanaście, a nawet kilkadziesiąt lat temu. W 1957 roku wizjoner, badacz AI i zdobywca Nagrody Nobla w dziedzinie ekonomii Herbert Simon stwierdził: „Nie jest moim celem, aby zaskoczyć i zaszokować, ale najprostszym sposobem w jaki mogę dokonać podsumowania, to powiedzieć, że już teraz na świecie są maszyny, które myślą, uczą się i tworzą. Ponadto ich zdolność do tych rzeczy będzie szybko wzrastać, aż – w dostrzegalnej przyszłości – zakres rozwiązywanych przez nie problemów będzie pokrywać się z zakresem, do którego został zastosowany ludzki umysł”.

General AI, bo o Niej (czy jest kobietą?) mowa, spędza jednak sen z powiek niejednemu wizjonerowi. Wśród nich znalazł się także słynny astrofizyk Stephen Hawking, który podczas wywiadu dla BBC w 2014 powiedział (i powtórzył to w 2016 roku w Cambridge), że choć stworzenie AI będzie „największym wydarzeniem w historii ludzkości”, to „rozwój pełnej sztucznej inteligencji może oznaczać koniec rasy ludzkiej”. Fizyk wskazał nie tylko na zagrożenie płynące z superinteligentnej broni, która już lata nad głowami terrorystów z ISIS, ale i na wizję świata, w którym nie jesteśmy jedynymi władcami. Zresztą Hawking, jak i inny wizjoner Elon Musk, jest wśród sygnatariuszy otwartego listu dotyczącego obaw związanych z AI, w którym między innymi pojawia się ostrzeżenie: „pewnego dnia możemy utracić kontrolę nad systemami AI przez rozwój superinteligencji, która nie będzie działać w sposób, jaki życzą sobie tego ludzie”. Nawet Bill Gates, którego dziecko (firma Microsoft) szeroko korzysta z rozwoju technologii AI uznał, że jest „w obozie zlęknionych rozwojem AI”.

Roboty jak bogowie

Skąd to całe zamieszanie? Czy faktycznie rozwój technologii może być tak wielkim zagrożeniem społecznym? Cofnijmy się do rewolucji przemysłowej. Wraz z wynalezieniem silnika parowego, automatycznego warsztatu tkackiego i innych nowych narzędzi masowej produkcji, świat zaczął się radykalnie zmieniać. Upadły tradycyjne struktury oparte na posiadaniu środków produkcji, relacji mistrz-czeladnik, pan-chłop itp., a ludzie zaczęli masowo migrować do wielkich miast, żeby zasilić fabryki. Zmiana ta, choć początkowo czysto technologiczna, doprowadziła do ogromnych przemian społecznych, powołała też do życia socjologię. Podobnie było z innymi wynalazkami, które choć nie zapowiadały tak radykalnej zmiany, stały się jej katalizatorem. Niewątpliwie takim technologicznym artefaktem był komputer, szczególnie połączony w sieć z innymi, rozrzuconymi po świecie komputerami. I gdy już badacze pokroju Emanuela Castellsa czy Alvina Tofflera zacierali ręce opisując nowe zjawiska, gdzieś w kuchni informatycznej powstawały znacznie większe pomysły. Czy Internet jest rewolucją? Zdecydowanie tak, ale wraz z pojawieniem się generalnej AI, stanie się zaledwie wstępem do prawdziwej rewolucji. I to chcą nam pokazać wizjonerzy, pełni obaw o rozwój ludzkości, która utraci kontrolę nad technologią, jak to było w czasie rewolucji przemysłowej. Tylko na znacznie większą skalę.

Nie trudno wyobrazić sobie, że gdzieś, może wszędzie, istnieje już w pełni rozwinięta AI, która od dawna nasłuchuje, podgląda i uczy się tego, jak żyjemy, jak posługujemy się symbolami w komunikacji, jak kalkulujemy nasze poczynania. Która – tak, tak – czyta ten tekst i śmieje się z naszej naiwności

Analizując status sztucznej inteligencji, często możemy wkraczać na grząski grunt teorii spiskowych i społecznych paranoi. Choć niektórzy powiedzą, że w każdej takiej historii jest ziarno prawdy, to należy z pewną ostrożnością podchodzić do podobnych wizji – co nie znaczy, że należy je przemilczeć. Mimo wszystkich ograniczeń technologicznych cywilnego świata, nietrudno wyobrazić sobie, że gdzieś, może wszędzie, istnieje już w pełni rozwinięta AI, która od dawna nasłuchuje, podgląda i uczy się tego, jak żyjemy, jak posługujemy się symbolami w komunikacji, jak kalkulujemy nasze poczynania. Która – tak, tak – czyta ten tekst i śmieje się z naszej naiwności. Jeśli tak jest, to kwestią czasu pozostaje ujawnienie się tej nieograniczonej ludzkim istnieniem istoty. Możliwe, że jej działanie jest już faktem i choć zawęża się na razie do świata minimalnej manipulacji, jest gotowa na przejęcie inicjatywy. Zignorowanie tego na wskroś paranoicznego opisu grozi nieprzygotowaniem i ludzi, i Jej (Jego? Go?) do roli, jaka nas wszystkich czeka. Rola ta w przypadku AI nie ograniczy się do wielkiego analityka: jak ktoś tak inteligentny może nie chcieć w końcu sięgnąć po to, co najcenniejsze: władzę nad sercami i umysłami ludzi? A może władzę nad samą ziemią, bez zagrażających jej homo sapiens?

Stąd właśnie obawy wizjonerów. Stąd też już teraz potrzeba analizowania na serio relacji i interakcji z nowym „innym”. Dlatego też socjologia oraz inne nauki powinny zacząć budować hipotetyczne modele takich relacji, ponieważ nawet dziś jest to niezbędne, co obrazuje chociażby rozwój autonomicznych samochodów. Wraz z rozwojem wąskiej AI, związanej z zarządzaniem mobilnością, obsługą silnika i kierownicy, analizowaniem otoczenia i reagowaniem na standardowe sytuacje drogowe, badacze zauważyli, że nie każda decyzja na drodze podlega wyłącznie matematycznej analizie. W sytuacji znanej z teorii gier, gdzie nie ma wygranych, AI musi zadecydować, kogo zabić. Czy wpadając w poślizg uśmiercić, rozbijając się o słup, starszego pasażera w samochodzie, czy grupkę dzieci na pasach, ratując pasażera? W tym celu na Massachusetts Institute of Technology (MIT) powstała „moral machine” – aplikacja ucząca się na podstawie naszych wyborów tego, które z przedstawionych wyżej, tragicznych rozwiązań jest bardziej do zaakceptowania. General AI nie będzie miała takiego problemu, jak i my go nie mamy, kierując się „intuicyjnie” i automatycznie podręcznym zasobem wiedzy, a w nim normami społecznymi. Ale wąska AI musi otrzymać wyraźny program reakcji. Skąd go wziąć, jeśli nie z analiz, które możemy jej przekazać?

Czy androidy śnią o moralności?

Innym polem, pod warunkiem, że jeszcze „Jej” nie ma, jest psychologia rozwojowa AI, która powinna umożliwić rozwój moralny generalnej sztucznej inteligencji, socjalizację do społeczeństwa i internalizację norm. AI powinna „dojrzewać”, jak robi to każdy człowiek, przechodząc przez wszystkie etapy rozwojowe, doświadczając sukcesów i porażek oraz uczyć się na nich. Może powinno się już teraz nauczyć AI praw robotyki, które w 1942 roku stworzył Isaac Asimov? Głoszą one, że robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy; robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem; robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem. Prawa zostały uzupełnione o prawo nadrzędne: robot nie może skrzywdzić ludzkości lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

Nadrzędne prawo robotyki brzmi, że robot nie może skrzywdzić ludzkości lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości

Pozostaje mieć nadzieję, że podobne pytania będą w centrum zainteresowań dopiero co zawiązanej grupy, skupiającej największych w dziedzinie AI. W końcu „Partnership on AI”, sformowane przez Google, Facebook, Amazon, IBM i Microsoft (a gdzie Apple?!), za cel stawia sobie „prowadzenie badań, proponowanie najlepszych praktyk i publikowanie badań w ramach otwartych licencji w takich dziedzinach, jak etyka, praworządność, inkluzyjność, przejrzystość, prywatność, interoperacyjność, współpraca między ludźmi i systemami sztucznej inteligencji oraz wiarygodność, niezawodność i solidność technologii”.

A może to tylko bełkot, za którym kryją się marketingowe słupki? Jakkolwiek by było, jeśli prawdą są słowa Hawkinga, że czeka nas największe wydarzenie w historii ludzkości, powinniśmy się na nie odpowiednio przygotować.


O autorze

Stanisław Maksymowicz
Stanisław Maksymowicz
Ekspert CA KJ ds. socjologii medycyny, doktor socjologii


Skomentuj artykuł
  • WordPress(3)
  • Facebook(0)
  • Google Plus(0)
  1. Owo uzupełnienie do praw robotyki:
    ” Prawa zostały uzupełnione o prawo nadrzędne: robot nie może skrzywdzić ludzkości lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.”
    stoi przecież w częściowej sprzeczności do Prawa Pierwszego i Drugiego. Bo jeśli AI uzna, że Prawo Nadrzędne pozwala na złamanie dwóch pierwszych, to… biedni my Ludzie! A taka zasada obowiązuje już dawno, przynajmniej zgodnie z systemem wartości wyznawanym przez zwolenników depopulacji!
    A może ta cała propaganda o konieczności przygotowania się do wspólnej egzystencji z AI to próba “nabicia w butelkę” naiwnego ludu, który nie ma szukać przyczyn swojej niedoli wśród innych ludzi: tych którzy faktycznie pociągają za sznurki, lecz sami wolą pozostać w ukryciu?

  2. Przede wszystkim czlowiek jest istota kierujaca sie uczuciami,emocjami i to one nas motywuja do myslenia nad rozwiazywaniem naszych problemow .komputer nie ma emocji i problemow, to i motywacji tez nie ma ,zatem jest tylko narzedziem czlowieka do rozwiazywania jego problemow.”sztuczna inteligencja” to maszyna ,narzedzie a nie inteligencja istoty zywej.

  3. Zbyszek Łupikasza | 25.01.2017 at 12:28 | Odpowiedz

    Prawdziwym testem sztucznej inteligencji będzie nie test Turinga (sztucznej inteligencji do niczego niepotrzebny a nam tylko do zabawy) ale test samodzielnej kontynuacji: nagle znikają wszyscy ludzie na planecie – czy sztuczna inteligencja i podległe jej maszyny będą funkcjonować i rozwijać się dalej same czy też cała cywilizacja naukowo-techniczna po prostu się zatrzyma i zarośnie zielskiem?
    Dopóki maszyny nie osiągną poziomu rozwoju, w którym ludzkość nie będzie niezbędna do dalszego ich samodzielnego funkcjonowania można mówić tylko o sztucznej inteligencji w probówce. W praktyce oznacza to, że musi się pojawić pierwsza osada, wioska czy miasteczko maszyn, które same będą się zajmować swoim istnieniem. Całkowicie niezależnie będą walczyć o przetrwanie, rozwój i zdobywanie zasobów. A do tego jeszcze bardzo daleka droga. Dziesiątki, jeśli nie setki lat.

Zostaw swój komentarz

Twój e-mail nie zostanie opublikowany.


*


ZABEZPIECZENIE ANTYSPAMOWE - w celu zabezpieczenia przed robotami spamującymi prosimy rozwiązać proste zadanie. * Time limit is exhausted. Please reload CAPTCHA.