Obawiamy się tego, że sztuczna inteligencja (AI) będzie od nas lepsza, jednak pojedynki z mistrzami gier to tak naprawdę wciąż batalia, którą ludzie toczą sami ze sobą – mówi PAP dr Aleksandra Przegalińska, filozofka i specjalistka od sztucznej inteligencji.
PAP: Ostatnio pojawiły się w mediach kolejne doniesienia o triumfach programu AlphaGo nad mistrzami go. Coraz głośniej również mówi się o tym, że kolejnym wyzwaniem dla sztucznej inteligencji będzie skomplikowana gra strategiczna "Starcraft". Dlaczego tak fascynujemy się doniesieniami o kolejnych zwycięstwach sztucznej inteligencji nad ludźmi?
Dr Aleksandra Przegalińska, Akademia Leona Koźmińskiego i Massachusetts Institute of Technology (MIT): Wciąż panuje pogląd, że jako gatunek jesteśmy królami świata i nasze kompetencje – w każdym dowolnym obszarze inteligencji – są bardzo wysokie. Tak więc moment, w którym zostajemy sromotnie pokonani, to pewnego rodzaju wstrząs. Jest to w ogóle bardzo ciekawe zjawisko dla mnie jako badaczki sztucznej inteligencji.
Z jednej strony, strasznie się tej sztucznej inteligencji obawiamy, lękamy się tego, że będzie ona będzie od nas lepsza. I to się zresztą coraz bardziej spełnia: zaczęło się jeszcze w latach 90. od pojedynków Kasparowa z Deep Blue, teraz w zasięgu maszyn pojawiają się coraz bardziej zaawansowane i coraz trudniejsze gry. Jednak choć boimy się przewagi sztucznej inteligencji, to z drugiej strony w jakiś sposób nas to pociąga. Koniecznie chcemy sprawdzić, czy to się faktycznie zdarzy. Sądzę, że cały projekt sztucznej inteligencji jest dla nas tak pociągający, ponieważ budzi w nas moce sprawcze. Nie zapomnijmy, że w momencie, kiedy AlphaGo gra w go, tak naprawdę stoi za nim cały zespół ludzi, który tę maszynę bardzo długo trenował. Powiedziałabym, że w jakimś sensie są to cały czas ludzie przeciwko ludziom. Albo inaczej: pewien paradygmat myślenia o tym, jak się uczyć grania przeciwko drugiemu paradygmatowi. Mam więc wrażenie, że batalia o sztuczną inteligencję to w sumie batalia, którą ludzie toczą sami ze sobą.
PAP: Czym w takim razie różni się sposób "myślenia" maszyn od ludzkiego? Czy da się to w ogóle określić?
A.P.: Bardzo trudno jest na to odpowiedzieć. Na pewno jest tak, że inteligencja obliczeniowa ma swoją specyfikę. Słyszymy ostatnio o tym, że dzieci mają być uczone myślenia algorytmicznego – oznacza to oczywiście, że takiego myślenia mieliśmy do tej pory mniej. Jest to styl myślenia możliwy do opanowania przez ludzi – uczy się go w końcu nawet na prostym kursie logiki, na który uczęszczałam jeszcze na filozofii. Jednak pomimo tego, że ten sposób myślenia jest dla nas zrozumiały, nie jest on nam bliski. Jako ludzie stosujemy rozmaite skróty, do każdej informacji dodajemy kontekst. Istnieją dane ze świata, które są mało przejrzyste dla maszyny, za to bardzo przejrzyste dla nas – właśnie dzięki rozumieniu kontekstu. Z kolei dane, które dla maszyny są bardzo przejrzyste i łatwe do zoperacjonalizowania, często przekraczają nasze możliwości. Dużo lepiej radzimy sobie w takich "noisy situations": gdzie jest dużo rozmaitych, trudnych do oczyszczenia danych. Taka jest choćby sytuacja mojej rozmowy z panią: obie wiemy mniej więcej jak się zachować, znamy te wszystkie kody, wiemy, na jakiej wysokości trzymać mikrofon, aby moje odpowiedzi do niego docierały. Maszyna by się z takimi rzeczami zmagała. Tak więc rzeczy, które są dla nas bardzo proste, np. inteligencja ciała, emocjonalna, społeczna bądź też rozumienie kontekstowe – to jest coś, co dla maszyny jest bardzo trudne. Właśnie w tym sensie jesteśmy różni – ale to nie znaczy, że nie ma punktów styku. W przeciwnym razie człowiek nie wymyśliłby choćby uczenia maszynowego.
PAP: No właśnie – jak uczą się maszyny?
A.P.: W dziedzinie uczenia maszynowego mamy dzisiaj kilka różnych paradygmatów dotyczących tego, jak trenować maszynę do analizy różnych danych i jak tę maszynę doprowadzać do tego, żeby jej wnioskowania były trafne. Możemy tutaj wymienić chociażby "reinforcement learning", czyli uczenie przez wzmocnienie, z zastosowaniem nagrody i kary, "unsupervised learning", czyli uczenie nienadzorowane – nieznana jest tutaj prawidłowa odpowiedź na dany problem, co daje komputerowi więcej swobody. Teraz dołączyło do tego tzw. deep learning, czyli głębokie uczenie – metoda wykorzystująca wielopoziomowe sieci neuronowe do tworzenia systemów, które mogą wykrywać określone cechy z dużych ilości nieoznakowanych danych.
PAP: Co jest charakterystyczne dla dzisiejszej sztucznej inteligencji?
A.P.: Niewątpliwie przeżywamy w tym momencie pewną formę fascynacji systemami biologicznymi. Oznacza to, że w dziedzinie sztucznej inteligencji zapatrzyliśmy się na to, jak poznają świat prawdziwe organizmy. Pamiętajmy, że nie zawsze tak było. W początkach sztucznej inteligencji stawialiśmy raczej na budowanie mikroświatów i systemów z wewnętrznymi reprezentacjami rzeczywistości – maszyna poruszała się tylko po tym wewnętrznym świecie. Potem stwierdziliśmy, że lepiej, aby maszyna uczyła się przez doświadczenie – czym już zaczęliśmy imitować nasze własne formy uczenia – chociażby przez takie proste warunkowanie jak kara i nagroda.
PAP: Czy imitując nasze formy uczenia możemy doprowadzić do stworzenia prawdziwie inteligentnej maszyny?
A.P.: Przede wszystkim należy pamiętać, że w całej naszej dyscyplinie jest podział: na sztuczną inteligencję, która jest projektem istniejącym i implementowanym, oraz na tzw. generalną sztuczną inteligencję (AGI), której na razie nie ma. Za rogiem nie czeka na nas Terminator.
PAP: Co byłoby potrzebne do stworzenia takiej osobliwej maszyny?
A.P.: Odpowiedziałabym – choć pamiętajmy, że jest to wciąż odpowiedź udzielona przez człowieka, który warunkuje maszynę przez pryzmat siebie samego i swoich możliwości poznawczych – że potrzebna by do tego była samoświadomość i jakaś forma zapodmiotowienia. Niezbędna byłaby wola wykonania zadania, chęć zrobienia czegoś – być może wzbudzoną ciekawością. Żeby w ogóle taką strukturę móc stworzyć, potrzebne jest +ja+, które jest w jakiś sposób samozwrotne.
PAP: Czyli niezbędna byłaby dla maszyny świadomość samej siebie?
A.P.: Niektórzy biolodzy zarzuciliby mi tutaj, że w przypadku prostych organizmów samozwrotność czy samoświadomość jest znikoma – a jednak działają one w świecie. Mimo wszystko powiedziałabym, że do stworzenia w pełni inteligentnej maszyny, która dodatkowo jeszcze będzie miała ten komponent obliczeniowy – potrzebna jest właśnie świadomość. Jest to tak naprawdę duży i trudny problem, gdyż jesteśmy w stanie symulować na maszynie jedynie zjawiska, które w pełni rozumiemy. Może się zdarzyć tak, że jakaś maszyna w toku swojego rozwoju, nabywania kompleksowości po prostu dokona, jak to mówią fizycy, przejścia fazowego, czyli nagle się stanie samoświadoma, bez naszego udziału. Ale może być też tak, że będziemy rozwijać neuronauki, badania nad mózgiem – i w toku tych działań nauczymy się symulować świadomość na maszynie – możliwych ścieżek jest więc kilka.
Źródło: www.naukawpolsce.pap.pl