Jesteś tutaj

Rozmowa z dr. Tomaszem Xięskim z Zakładu Systemów Informatycznych na Wydziale Informatyki i Nauki o Materiałach Uniwersytetu Śląskiego o tym, jaka jest historia, teraźniejszość i przyszłość sztucznej inteligencji, jaki związek mają artystyczne wyobrażenia o maszynach uczących z rzeczywistością i czy rzeczywiście mamy się czego bać.

Na początek spróbujmy wyjaśnić, co to jest sztuczna inteligencja (ang. artificial intelligence, AI)?

– Mnie najbliższa jest definicja Edwarda Feigenbauma, amerykańskiego informatyka uważanego za ojca systemów ekspertowych, czyli wszelkiego rodzaju systemów, które opierają swoje działanie na wnioskowaniu, indukcji nowej wiedzy, systemach doradczych i wspomagania decyzji. Wniósł ogromny wkład w rozwój sztucznej inteligencji, którą definiował jako dziedzinę informatyki dotyczącą metod wnioskowania symbolicznego i reprezentacji wiedzy używanej w procesie takiego wnioskowania. Ta definicja bierze pod uwagę proces uczenia się i dostosowywania się do nowych warunków. Uwzględnia też sferę maszynową, czyli tę „sztuczność”. Może to więc być program komputerowy czy wyspecjalizowany system, który nas wspomaga. O sztucznej inteligencji mówi się też wtedy, kiedy maszyna robi coś potencjalnie lepiej lub szybciej od człowieka, np. oblicza, klasyfikuje czy kataloguje. Określenie sztuczna inteligencja jest dziś hasłem bardzo popularnym, nośnym, ale odnoszę wrażenie, że również często nadużywanym. Nierzadko słyszymy w reklamach czy programach telewizyjnych o inteligentnych pralkach, lodówkach, telewizorach czy smartfonach. Szczególnie marketingowcy lubią się nim posługiwać i określać dany produkt terminem smart lub intelligence, nawet jeśli w rzeczywistości taki nie jest. Ja jednak określam sztuczną inteligencję jako dziedzinę informatyki, która oczywiście wykorzystuje również inne nauki z pogranicza wielu różnych dziedzin: technik poznawczych, kognitywistyki, metod analizy językowej, psychologii. 

Kiedy pojawił się termin sztuczna inteligencja i jak przedstawia się historia badań nad nią?

– Za ojca sztucznej inteligencji uważa się Marvina Minsky’ego, amerykańskiego naukowca zajmującego się głównie naukami kognitywnymi, współzałożyciela laboratorium AI w Massachusetts Institute of Technology (MIT) w Bostonie. Był jednym z pionierów robotów bazujących na sztucznej inteligencji, w 1951 roku zbudował pierwszą stochastyczną sieć neuronową (SNARC). Sam termin sztuczna inteligencja jest całkiem nowy. Wymyślił go John McCarthy, amerykański informatyk, laureat Nagrody Turinga, i po raz pierwszy użył w 1956 roku podczas konferencji zorganizowanej przez Dartmouth College w New Hampshire. Pojęcie zdefiniowano jako „system, który świadomie postrzega otoczenie i reaguje na nie tak, aby zmaksymalizować swoje szanse powodzenia”. Pierwszym systemem tego typu był program ELIZA – czatbot testowany w MIT w 1966 roku. Jak wspomniałem wcześniej, pierwsze programy eksperckie były systemami doradczymi, które wykorzystywano np. w medycynie. Programy tego typu polegały na tym, aby zastąpić eksperta, ale ostateczną decyzję podejmował człowiek.

W 1950 roku Alan Turing zaproponował użycie pewnego testu na inteligencję maszyn. Nazwano go później testem Turinga. Na czym on polega?

– Test Turinga dotyczy głównie jednego rodzaju maszyn – tzw. czatbotów. Czatbot to program komputerowy, którego zadaniem jest prowadzenie konwersacji przy użyciu języka naturalnego bądź interfejsu tekstowego i sprawianie wrażenia inteligentnego. O idealnym czatbocie możemy mówić, gdy sprawi, że rozmawiający z nim człowiek uwierzy, że prowadzi konwersację z żywym człowiekiem, a nie z programem. Test Turinga ma za zadanie m.in. udowodnić inteligentne zdolności maszyny dzięki skutecznemu udawaniu człowieka w rozmowie. Turing oczekiwał, że maszyny w przyszłości będą potrafiły przejść ten test. Naukowiec ocenił, że tak się stanie około 2000 roku. I rzeczywiście proste programy konwersacyjne, jak wspomniana ELIZA, były w stanie sprawić, że ludzie wierzyli, iż rozmawiają z żywym człowiekiem. Samo oszukanie kilku osób nie jest jednak tym samym, co przejście testu Turinga. Człowiek w zwykłej rozmowie nie ma podstaw do podejrzeń, że nie rozmawia z innym człowiekiem. W teście Turinga przesłuchujący stara się aktywnie określić naturę rozmówcy. Mimo pewnych doniesień o sukcesach poszczególnych programów tak naprawdę nie możemy jeszcze powiedzieć, że jakaś maszyna zdała ten test. Oczywiście pojawiają się różnego rodzaju czatboty, błędnie określane jako wirtualni asystenci, które wykorzystywane są w internecie lub na infoliniach jako doradcy, konsultanci lub przewodnicy po serwisach. Pionierem w tej dziedzinie jest z pewnością firma Google, która niedawno wyprodukowała Google Asystenta. To inteligentny asystent osobisty, który dostępny jest na urządzenia mobilne oraz inteligentne urządzenia domowe, tzw. smart home. Jego cechą charakterystyczną jest umiejętność prowadzenia dwustronnej konwersacji i rozumienia kontekstu, ale nie tylko. Potrafi odpowiadać na zadane pytania, wyszukuje informacje w internecie, kontroluje inne urządzenia – od telewizora po zmywarkę, robi zakupy, rezerwuje loty, hotele, rozpoznaje przedmioty za pomocą kamery, rozpoznaje tekst, zarządza kalendarzem użytkownika itd. 

Stanisław Lem powiedział, że tak naprawdę nie możemy jeszcze mówić o istnieniu sztucznej inteligencji, i na dowód podał przykład: gdyby zechciał uderzyć swój komputer, to ten by się nie obronił, mimo iż liczy niewątpliwie szybciej i dokładniej od niego.

– Niemniej są już systemy, które potrafią uczyć się na podstawie doświadczenia, funkcji oceny na przykładach, możemy też mówić o programach, które zmieniają swój kod. Mimo wszystko zgodzę się ze zdaniem Lema, że nie ma jeszcze tak inteligentnej sztucznej inteligencji. Bo gdy myślimy o sztucznej inteligencji, jaką obdarzone są roboty z powieści science fiction, to pojawia się kwestia samoświadomości. Czy sztuczna inteligencja może osiągnąć taką samoświadomość, jaką ma człowiek? A jeśli tak – jakie to będzie miało implikacje? Gdyby kiedyś doszło do sytuacji, że sztuczna inteligencja zdobyłaby osiągnąć taką samoświadomość, musielibyśmy wówczas zadać sobie pytanie, jaką rzeczywiście mamy nad nią kontrolę.

Stephen Hawking twierdził, że bardziej od kosmitów boi się sztucznej inteligencji, która pozbawiona kontroli może unicestwić gatunek ludzki. Czy rzeczywiście sztuczna inteligencja może w przyszłości zagrozić ludzkości?

– Myślę, że na razie możemy spać spokojnie. Takie obawy są raczej rodem z filmów typu Terminator. Do tej pory nie udało się stworzyć maszyny, która potrafiłaby symulować wszystkie procesy poznawcze, jakie zachodzą w ludzkim mózgu. Ludzki mózg jest wciąż najlepszą maszyną myślącą na świecie. Być może do czasu, ale obecnie jesteśmy na takim etapie, kiedy człowiek kontroluje maszyny wykorzystujące sztuczną inteligencję.

Isaac Asimov w swoich powieściach zmierzył się z problemem zasad moralnych, jakimi będą kierowały się urządzenia wyposażone w sztuczną inteligencję, i już w 1942 roku stworzył słynne trzy prawa robotyki, w których jasno określił, co robot może, a czego nie może zrobić. 43 lata później dodał tzw. prawo zerowe, które dawało robotowi możliwość zadecydowania o tym, co jest dobre dla ludzkości i kiedy dobro ludzkości stoi ponad dobrem człowieka jako jednostki. Czy kiedykolwiek będzie można nauczyć sztuczną inteligencję moralności i takich pojęć, jak dobro czy zło?

– To jest bardzo trudne zagadnienie. Musielibyśmy wpierw odpowiedzieć na pytanie, co rozumiemy przez moralność. Moralność, dobro, zło, dusza, samoświadomość – to wszystko pojęcia, które jak dotąd przypisujemy wyłącznie człowiekowi. Używamy ich, ale czy zastanawiamy się, co się pod nimi kryje? Kwestie decydowania za człowieka są już jednak rozważane, na przykład w przypadku samochodów autonomicznych. W sytuacjach wyjątkowych pojawia się problem, czy samochód ma uderzyć w inny samochód, czy wjechać na chodnik, na którym może potrącić inne osoby. Co jest lepsze: uśmiercić jednego człowieka czy grupę ludzi? Są to bardzo poważne dylematy moralne, z którymi trudno poradzić sobie ludziom, a co dopiero maszynom. Poza tym pojawiają się także kwestie odpowiedzialności za sytuacje, w których ktoś ucierpiał. Trzeba wyraźnie powiedzieć, że obecnie wszelkie systemy, które są wbudowane w samochody autonomiczne, nie są naprawdę systemami w pełni autonomicznymi. Zawsze to kierowca jest odpowiedzialny za obserwację drogi i to on ma ostateczną decyzję. Zresztą według przepisów kierowca w autonomicznym pojeździe powinien trzymać ręce na kierownicy, żeby w razie nagłej sytuacji mógł zareagować. Gdy doczekamy się zalegalizowanych typowo autonomicznych pojazdów, dojdzie jeszcze kolejna kwestia – czy te pojazdy są na pewno stuprocentowo bezpieczne. Skoro czerpią swoje aktualizacje z zewnątrz – za pośrednictwem internetu, to do takiego pojazdu, a dokładniej systemu komputerowego, potencjalnie można się włamać. Może się wówczas okazać, że ktoś przejmie kontrolę nad samochodem, a kierowca ją utraci, nie będzie mógł więc nim kierować i reagować.   

Nasze obecne wyobrażenie sztucznej inteligencji jest chyba mocno zdeterminowane przez studia filmowe i literaturę z kręgu science fiction. Bo chyba sztuczna inteligencja to nie tylko androidy, które chcą przejąć władzę nad Ziemią?

– Oczywiście, że tak. Nasze dzisiejsze wyobrażenia są mocno ograniczone przez produkcje hollywoodzkie. To humanoidy, które są silniejsze i sprytniejsze od człowieka. Ale czy sztuczna inteligencja naprawdę nas zastąpi? Mam nadzieję, że nie. Budujemy sztuczną inteligencję, aby była dla nas pomocą. Koncepcje science fiction bazują raczej na naszych emocjach. Być może wskazują na jakiś potencjalny problem, ale generalnie mocno go przerysowują.

Komputer uczy się w sposób skomplikowany i stosunkowo długo, analizując wszystkie dostarczane mu dane. Ludzki mózg w sposób naturalny upraszcza dane i wybiera tylko informacje istotne dla procesu uczenia się.

– Przetwarzanie dużej liczby informacji zawsze było wyzwaniem i jest to coraz większy problem. Kiedyś symulacja gry w szachy była trudnym zadaniem ze względu na problemy obliczeniowe – komputery starszej generacji nie miały takiej mocy obliczeniowej, jak dzisiejsze komputery, żeby nawet znając wszystkie strategie, dojść do optymalnego rozwiązania. W związku z czym w szachach zastosowano inną koncepcję – pewnego rodzaju algorytmy heurystyczne, podejścia stochastyczne, przybliżone. Chodziło o to, aby wybrać strategię w miarę blisko wygranej, ale być może nie jest to ta najlepsza, czyli schemat, w którym na pewno wygramy. Duże prawdopodobieństwo da się wyliczyć znacznie szybciej. Wówczas angażowane są mniejsze zasoby. Inną kwestią jest uczenie się i adaptacja (jak u ludzi). Pojęcie inteligencji można przecież zdefiniować jako zdolność adaptacji do nowych warunków i nowych zadań. Innym problemem jest przechowywanie danych do obsługi sztucznej inteligencji, a są to naprawdę ogromne bazy. Oczywiście nie ma mowy o płytach CD, DVD, Blue-Ray, twardych dyskach czy kartach pamięci. Z jednej strony systemy potrzebują nośników o potężnej objętości, a z drugiej – trwałych. Najnowszym pomysłem na zachowywanie takich ogromnych danych jest zapis w DNA. To stosunkowo trwała i odporna struktura, ma zdolność regeneracji i replikacji, a co bardzo istotne – w zasadzie się nie starzeje. Ale najważniejsza jest gęstość zapisu – 215 petabajtów (1015 bajtów) danych w 1 gramie DNA! To fenomenalny wynik. Komputery wykorzystujące DNA to wcale nie science fiction, już powstają takie urządzenia, choć nie na masową skalę. Poza tym metoda zapisu i odczytu informacji z DNA jest bardzo droga, choć oczywiście wraz z rozwojem technologii ceny na pewno spadną. Myślę, że DNA może być przyszłością w przechowywaniu informacji.

W jakim kierunku zmierzają badania nad sztuczną inteligencją?

– Przede wszystkim będą iść w kierunku produkcji systemów do szeroko pojętej analizy dużych zbiorów danych, tzw. big data. To nie tylko duże, ale zmienne i różnorodne zbiory danych, których przetwarzanie i analiza są trudne, ale jednocześnie niezwykle wartościowe, ponieważ może to prowadzić do zdobycia nowej wiedzy. Oczywiście pojęcie duże zbiory jest względne. Generalnie oznacza zbiory, których nie da się przetwarzać przy użyciu powszechnie dostępnych metod. Mogą to być nawet petabajty danych. W dzisiejszych czasach ludzkość generuje ogromne ilości informacji: w internecie, ale także dane w postaci transakcji, informacji służących do profilowania klientów. Jeden obszar zainteresowania naukowców to wykorzystanie data miningu do dokonywania prognoz, np. danych giełdowych, danych sprzedaży, wszelkiego katalogowania i grupowania danych. Kolejny kierunek to systemy wspomagania decyzji, które odgrywają rolę doradczą w kwestiach biznesowych, medycznych, bankowych itp. Trzeci kierunek, który bym wyróżnił, jeśli chodzi o sztuczną inteligencję, to ulepszanie mechanizmów komunikacji z człowiekiem, a więc wszelkiego rodzaju interfejsy, nawet już niewerbalne, systemy sterowania wzorowane np. na Kinekcie, w którym się poruszamy, nasza sylwetka jest mapowana, to również rozpoznawanie twarzy, obiektów oraz analiza mowy. To dość istotne kierunki, które już są realizowane poprzez sztuczne sieci neuronowe czy modele Markowa. W tych działach sztuczna inteligencja dość prężnie się rozwija. Naukowcy, inżynierowie zaczęli ostatnio tworzyć także systemy neuromorficzne, czyli takie obwody scalone, które są wzorowane na tym, jak wyglądają fragmenty mózgu. Może jeszcze jest bardzo daleko do tego, aby te zaawansowane systemy odczuwały emocje, ale na pewno badania będą podążały w takim kierunku, aby maszyny nie tylko same uczyły się na podstawie swoich doświadczeń, ale również robiły to szybciej.

Bardzo dziękuję za rozmowę.

Rozmawiała Agnieszka Sikora

Artykuł ukazał się "Gazecie Uniwersyteckiej UŚ" [nr 9 (269) czerwiec 2019].

Źródło: domena publiczna
Dr Tomasz Xięski z Zakładu Systemów Informatycznych na Wydziale Informatyki i Nauki o Materiałach Uniwersytetu Śląskiego. Fot. Agnieszka Sikora