Przejdź do głównej treści

Widok zawartości stron Widok zawartości stron

Nawigacja okruszkowa Nawigacja okruszkowa

Nawigacja Nawigacja

Widok zawartości stron Widok zawartości stron

Widok zawartości stron Widok zawartości stron

Ewolucja czy rewolucja? Sztuczna inteligencja puka do drzwi

Ewolucja czy rewolucja? Sztuczna inteligencja puka do drzwi

Jak nauczyć maszynę empatii? Jak wskazać robotowi, co jest dobre, a co złe? Jakie dylematy moralne stoją przed twórcami, którzy od kilkudziesięciu lat pracują nad technologią sztucznej inteligencji? O tym rozmawiamy z dr Błażejem Sajdukiem z Instytutu Nauk Politycznych i Stosunków Międzynarodowych UJ.

Kiedy zastanawiamy się nad koncepcją sztucznej inteligencji, na myśl przychodzą nam definicje pochodzące ze świata matematyki lub informatyki. Jak to wygląda dla badacza nauk społecznych i czy w ogóle da się ustalić jedno wspólne określenie tego, czym jest AI (z ang. artificial intelligence)? Oficjalnie nie ma żadnej definicji, co do której panowałaby powszechna zgoda naukowców. W raportach dotyczących tej tematyki można spotkać się nawet z dziewięcioma definicjami, które w jakiś sposób ze sobą korespondują, ale żadna nie wyczerpuje tematu. Naukowcy nie są w stanie się ze sobą zgodzić ze względu na to, że istnieją różne podejścia badawcze do tego, w jaki sposób sztuczna inteligencja ma funkcjonować - wyjaśnia dr Sajduk.

Rewolucja u bram

W przeciwieństwie do poprzedniego okresu, gdzie komputer dostawał algorytm i rozwiązywał bardzo powtarzalny problem, w pierwszych latach XXI wieku nałożyło się na siebie kilka procesów technologicznych. W okolicach 2007 r. mamy eksplozję i ekspansję „big data”, czyli wielkich zbiorów danych. Z drugiej strony obserwujemy ogromny wzrost mocy obliczeniowej procesorów (zwłaszcza chipsetów montowanych na kartach graficznych). W końcu nadchodzi przełom w machine learningu. Zaczyna się wykorzystywać w sposób zaawansowany wielowarstwowe sieci neuronowe, które są w stanie się uczyć różnych rzeczy. Ponadto, z wąskiej specjalizacji maszyny, która potrafi rozpoznawać wyłącznie np. koty, pracuje się nad tym, żeby taka maszyna zbliżyła się do tej „szerokiej” sztucznej inteligencji – takiej, która jest w stanie wykonywać różne zadania będąc jednym urządzeniem (maszyna nauczy się robić więcej niż tylko rozpoznawanie kotów) – wyjaśnia dr Sajduk. Te procesy technologiczne spowodowały, że zaczęto inaczej podchodzić do rozumienia tego, czym jest program i jak powinna funkcjonować maszyna. Wykorzystując nowinki technologiczne próbuje się obecnie nauczyć komputer myślenia na sposób ludzki, czyli z wykorzystaniem sieci neuronowych. Program jest w stanie nauczyć się nowych rzeczy w oparciu o statystyczny model rzeczywistości zbudowany na danych, którymi został zasilony – konkluduje Sajduk.

Politycy i społeczeństwo zdają sobie sprawę z tego, że do rozwoju technologii potrzebni są inżynierowie i technicy. Ci drudzy nie są jednak od tego, żeby etycznie zinterpretować, jakie będą funkcje tych uczących się maszyn. Świetnym przykładem tego był protest pracowników firmy Google z 2018 roku. Departament Obrony Stanów Zjednoczonych podpisał projekt o kryptonimie Maven, który miał służyć do tego, aby w oparciu o zachowania ludzi i analizę wielkich ilości danych, wskazywać potencjalne cele dla amerykańskich wojsk. Google nie przedłużył kontraktu z wojskiem USA – pracownicy koncernu wywarli presję na władzach firmy, ponieważ nie chcieli brać udziału w tego typu projekcie. To jest przykład obywatelskiego sprzeciwu wobec takich praktyk. Tutaj wyraźnie widać, jak etyka przenika się z technologią – zaznacza dr Sajduk.

Stworzenie sztucznej inteligencji nie jest już kwestią zwiększenia mocy obliczeniowej komputerów. Obecnie główne wyzwanie polega na obdarzeniu istoty niebiologicznej samoświadomością. Na ten moment jest to niemożliwe. Mamy całą rzeszę naukowców na czele z prof. Stephenem Hawkingiem czy Elonem Muskiem, którzy podpisali list otwarty wzywający do tego, aby zaprzestać prac nad rozwojem sztucznej inteligencji albo objąć je ścisłą kontrolą, ponieważ uważają, że jest to największe zagrożenie dla ludzkości. Są też tacy naukowcy jak Yuval Noah Harari, którzy mówią o tym, że rozwój AI jest kolejnym element ewolucji: integracja naszej cielesności z najnowszymi rozwiązaniami technologicznymi to następny krok w rozwoju człowieka – podkreśla politolog.

Nowy wyścig zbrojeń

Na poziomie politycznym rozwiązania AI również budzą spore kontrowersje. Z tego punktu widzenia, rozwój sztucznej inteligencji w państwach demokratycznych jest o wiele mniejszym problemem niż badania nad tym zagadnieniem i rozwój tej technologii w państwach niedemokratycznych, jak Chińska Republika Ludowa. Tu pojawia się bardzo ciekawa kwestia – zauważa dr Sajduk - ponieważ retoryka chińskiego dokumentu z 2017 roku dotyczącego supremacji Państwa Środka do 2030 roku w zakresie AI, mówi o wyścigu zbrojeń. Władimir Putin, prezydent Rosji, stwierdza, że ten kto pierwszy wdroży technologię sztucznej inteligencji, będzie rządził światem. Dyskurs w oparciu o tematy związane z bezpieczeństwem narodowym i sztuczną inteligencją jest jednoznaczny: wchodzimy w etap wyścigu zbrojeń. Przewaga sztucznej inteligencji nad obecnymi rozwiązaniami to transparentność. W tym sensie, że na przykład systemy czołgu można zmodernizować o AI radykalnie zwiększając jego wartość bojową, przez co technologia ta ma potencjał do wyzwalania dodatkowych możliwości z już istniejących platform uzbrojenia (z ang. enhancer) – wyjaśnia pracownik UJ.

Pokłosiem rewolucji sztucznej inteligencji będą też zmiany w gospodarce. AI, obok druku 3D, będzie rdzeniem napędzającym nową rewolucję technologiczną. Pojawiają się pytania o analogię z rewolucją przemysłową z przełomu XVIII i XIX wieku - wtedy ludzie masowo zaczęli tracić pracę. Czy w obliczu rozwoju sztucznej inteligencji możemy spodziewać się czegoś podobnego? Bill Gates mówi o tym, żeby opodatkować roboty, aby ich praca była porównywalnie kosztochłonna do tej wykonywanej przez ludzi. Istnieją projekty gwarantowanego dochodu podstawowego. Wiążę się to z tym, że koszty społeczne tego, że ludzie stając się „niezatrudnialni” zaczną szukać innych sposobów pozyskiwania pieniędzy, również tych nielegalnych, mogą być dużo większe – argumentuje Sajduk.

Na to nakłada się problem reindustrializacji wielkich mocarstw. Do tej pory cała produkcja odbywała się w Azji, co miało pozytywne strony dla jednych państw i negatywne dla innych (mowa chociażby o procesie carbon leakage polegającym na przenoszeniu emisji dwutlenku węgla z jednego kraju do drugiego). Nowy model kapitalizmu – tłumaczy dr Sajduk - ma też w sobie element powrotu mocy wytwórczych z powrotem do tzw. „centrum”. To może być problem dla Polski, bo my konkurujemy niskimi kosztami produkcji i jeśli Niemcy wykorzystają na dużą skalę AI w swoich fabrykach, to zapotrzebowanie na siłę roboczą z Polski drastycznie zmaleje. Może się okazać, że w perspektywie kolejnego pokolenia czekają nas poważne zmiany, ale zanim one nastąpią, czeka nas okres przejściowy. Może się on charakteryzować tym, co już teraz jest dobrze widoczne na przykładzie opisanym na łamach „The New York Times” – w upadłej cementowni zatrudniono osoby tam pracujące do rozpoznawania twarzy (chociażby w celach bezpieczeństwa). Ludzie posiadają tę jedną ważną kompetencję, że są… ludźmi, a co za tym idzie potrafią m.in. rozpoznać, że coś jest kotem, psem, murem czy szklanką. Przykład tagowania zdjęć przez chińskich robotników byłej cementowni może stanowić przykład ilustrujący etap pośredni między gospodarką opartą na ludziach a tą, w której dominować zaczną inteligentne maszyny - wyjaśnia politolog.

AI na co dzień

Wyzwanie, jakie stoi przed nami, to również kwestia ochrony danych osobowych. Już teraz istnieją technologie oparte na AI, tzw. asystenci (Siri Apple’a czy Asystent Google), ale żeby te aplikacje mogły być realną pomocą dla człowieka, to najpierw muszą zgromadzić o danej osobie ogromne ilości danych. AI ma wzmacniać moce kognitywne – zbiera, przetwarza dane i pomaga nam podjąć decyzję. Przykład transportu pokazuje, że to może być jeden z pierwszych elementów gospodarki, w którym presja automatyzacji sprawi, że maszyna zastąpi człowieka. Nie bez powodu mówi się, że urodził się już ostatni kierowca - zauważa dr Sajduk. To samo zjawisko powoli będzie dostrzegalne w sferze miejskiej: stopniowo koncepcje „smart house” czy „smart city” będą wspierane i rozwijane dzięki sztucznej inteligencji. To jest o tyle ciekawe, że nagle czynności, które zajmowały nam bardzo dużo czasu, ale też wymagały od nas wiedzy, są wykonywane przez sztuczną inteligencję czy algorytmy. Mamy już rozwiązania umożliwiające - za pośrednictwem niewielkich słuchawek umieszczanych w uchu - porozumiewać się w czasie rzeczywistym z osobami nie władającymi naszym językiem - pokazuje na przykładzie ekspert.

Jeszcze kilkadziesiąt lat temu, kiedy nowe technologie nie były dostępne dla wszystkich, wśród dzieci występowała bariera psychologiczna w kontakcie z zabawkami, które swoimi wyglądem i zachowaniem przypominały robota-człowieka. Opór przeciwko humanoidalnym maszynom, czyli poczucie awersji do maszyn, które imitują człowieka, było czymś normalnym. Współcześnie, z racji tego że dzieci obcują z technologiami na co dzień, takiej bariery już nie ma. Jednak obok tych zmian w życiu codziennym, dr Sajduk opowiada o tym, co dzieje się na poziomie globalnym w zakresie AI. Oprócz zmiany w gospodarce, mamy kwestię „killer robots”, o które martwią się obrońcy praw człowieka, ale wbrew pozorom tutaj rozwiązanie jest gotowe do wdrożenia: państwo czy wspólnota międzynarodowa potępią tego typu rozwiązania – w końcu ich rolą jest również zdefiniowanie co jest dobre, a co złe. To, co rodzi moje obawy, to miniaturowe inteligentne systemy uzbrojenia obezwładniające człowieka – takie, które nie zabiją, ale unieruchomią. Jak do tego rodzaju systemów podejść? Tu pojawia się zupełnie nowe pole dociekań, gdzie odpowiedzi nie są oczywiste - podsumowuje.

Wyzwania, jakie stoją przed ludzkością w związku z rozwojem technologii sztucznej inteligencji sprawiają, że choć sama koncepcja wydaje się słuszna, to w praktyce natrafiamy na problemy, dla których nie jest łatwo znaleźć rozwiązanie. Jak AI zachowa się w sytuacji znanej z paradoksu pędzącego wagonika: zabije jedną czy pięć osób?

----------------------------------

Ciekawe? Przeczytaj także:

 

Polecamy również
Najpopularniejsze nasze teksty o nauce - 2017
Nieśmiertelność już za 30 lat?