PL  |  EN

Kiedy sztuczna inteligencja dogoni człowieka? Rozmowa z dr Aleksandrą Przegalińską

Technologie przyspieszają w tempie, za którym nie nadążają najbardziej bystre umysły świata. Są jednak ludzie, którzy lepiej rozumieją postępujące zmiany i potrafią dość celnie przewidywać trendy, towarzyszące nam w następnych latach. Rozmawiamy z dr Aleksandrą Przegalińską na temat zmian technologicznych i społecznych, które mogą odmienić świat i rolę człowieka.

Filip Żyro: Jesteś jednym z najbardziej rozpoznawalnych naukowców w Polsce zajmujących się sztuczną inteligencją i uczeniem maszyn. Twoja kariera naukowa może budzić uznanie. Współpracujesz z Akademią Leona Koźmińskiego, a także prowadzisz badania w prestiżowym Massachusetts Institute of Technology. Powiedz czym obecnie się zajmujesz na MIT?

dr Aleksandra Przegalińska: Pracuję w projektach związanych z neuronauką i większość czasu spędzam w laboratorium. Badamy jak człowiek reaguje na kontakt z maszynami i sprawdzamy za pomocą specjalnych sensorów, jak ludzie czują się rozmawiając z różnego rodzaju botami i robotami. Chcemy dowiedzieć się przede wszystkim nie tego co oni myślą, ale co naprawdę czują.

Jaki jest cel tych badań?

Botów i czatbotów będzie bez wątpienia pojawiać się coraz więcej, powoli debiutują pierwsze społeczne odsłony – mamy sukces Aleksy, jest nowy asystent Google. Implementacji tych rozwiązań w różnych obszarach będziemy mieli coraz więcej. Dzięki tym badaniom, możemy efektywnie wskazać który interfejs użytkownika im się podoba, co w przyszłości może kierunkować rozwój tej dziedziny. Jednocześnie badamy również jak taka interakcje na linii człowiek-maszyna różni się od rozmowy prowadzonej z człowiekiem. Powoli dochodzimy do ciekawych wyników badań, bo okazuje się że interfejsy rozbudowane są mniej lubiane przez użytkowników, w porównaniu do prostej komunikacji za pośrednictwem czatu. Co ciekawe to rozbudowane interfejsy uchodziły właśnie za głupsze, a większość użytkowników oceniało taką konwersację gorzej.

Może wynika to z faktu, że znacznie łatwiej w trakcie złożonej rozmowy rozpoznać, że człowiek rozmawia z robotem?

Być może, ale jest to hipoteza związana z taką teorią jak Dolina Niesamowitości (hipoteza naukowa, zgodnie z którą robot, rysunek lub animacja komputerowa wyglądający bądź funkcjonujący podobnie (lecz nie identycznie) jak człowiek, wywołuje u obserwatorów nieprzyjemne odczucia, a nawet odrazę). Takie roboty humanoidalne wytwarzają dystans u ludzi z nie do końca znanej przyczyny, ale jest to potwierdzone, że człowiek czuje się niekomfortowo w ich towarzystwie.

Ktoś kto pracuje na styku tych zagadnień bez wątpienia ma również przemyślenia co do przyszłości. Przy tej okazji chciałem Cię spytać, gdzie widzisz największy potencjał do rozwoju w roku 2018, a gdzie największe zagrożenia?

Dla mnie miniony rok, a także ten, który przed nami, są przełomowe, szczególnie właśnie ze względu na rozwój sztucznej inteligencji. Nie chodzi nawet do końca o tak wymowne gesty, jak przyznanie Sophii obywatelstwa Arabii Saudyjskiej, chociaż oczywiście został on odnotowany w środowisku zajmującym się robotyką i AI. Mam na myśli osiągnięcia jakie poczynił AlphaGo Zero – komputer, który grał znakomicie w grę go i ograł człowieka, ucząc się gry zupełnie od podstaw bez żadnych zaimplementowanych schematów. Na łamach tygodnika Nature ukazała się publikacja, która opowiada o kolejnej odsłonie tej sztucznej inteligencji. AlphaGo Zero nie musi już grać meczy z człowiekiem, który obecnie nie jest dla niego żadną konkurencją w tej dziedzinie, komputer rozegrał 3 miliony partii sam ze sobą. Analiza wykazała, że komputer wykazywał zupełnie inny paradygmat pojmowania tej gry, rozumował na innym poziomie nieosiągalnym dla człowieka. Oznacza to, że uczenie maszynowe przez wzmocnienie, może odkrywać zupełnie nowe metody poznawcze dotąd nieosiągalne dla człowieka.

Sophia przemawiająca w trakcie szczytu AI for GOOD Global Summit zorganizowanym przez Międzynarodowy Związek Telekomunikacyjny w Genewie, czerwiec 2017

Powoli zaczynamy dotykać tematyki i problemów znanych z powieści futurystów. Jeżeli weźmiemy pod uwagę, że AlphaGo Zero nie zostało jedynie pomyślane do tego żeby grać w go, może okazać się, że będzie on chętnie skalowany również na inne dziedziny.

Tak, gra w go to był pierwszy poligon testowania tego rozwiązania. To narzędzie może być szeroko skalowalne i nie ma przeszkód ku temu, żeby np. AlphaGo Zero zajmował się diagnostyką medyczną czy przewidywaniem ryzyka inwestycyjnego. Zastosowania są niemal nieograniczone. Na razie poznaliśmy silnik, takie preludium tego co może; z czasem zaczną pojawiać się konkretne zastosowania, które dzisiaj nawet ciężko przewidzieć.
 

Jak tego słucham to towarzyszy mi takie uczucie żalu lub smutku, że komputery zaczynają nas przeganiać. Do tej pory uchodziliśmy za najinteligentniejsze istoty we wszechświecie, a tu nagle okazuje się, że komputery zaczynają nas przeganiać.

Być może pozwoli nam to trochę przejrzeć na oczy i sprowadzi nas na ziemię. Chyba tylko nam się do tej pory tak wydawało. Zwróćmy uwagę, że już teraz są zwierzęta, które lepiej widzą w nocy czy posiadają możliwość echolokacji, a teraz po prostu pojawią się maszyny, które lepiej potrafią gromadzić dane, a potem je analizować. Pocieszające jest, że cały czas lepiej rozumiemy wzajemne emocje czy abstrakcyjne myślenie.

No tak kalkulator rzeczywiście już od dawna lepiej liczy od człowieka… W ogóle IOT i uczenie maszynowe, to dwa trendy, o których od dawna się mówi, że zmienią otaczającą rzeczywistość, ale brakowało konkretnych przykładów uzmysławiających to ludziom. Może ta publikacja w Nature, pozwoli nam uświadomić sobie, jak te zmiany szybko postępują.

Ewidentnie mamy do czynienia z manifestem maszyny. AlphaGo Zero mówi nam “Wy w ogóle od początku źle w grę go graliście, źle zrozumieliście zasady, tylko nie potrafiliście tego dostrzec”. Ten rok był niesamowity dla ludzi zajmujących się maszynowym uczeniem i pozwala bardzo optymistycznie patrzeć na rok 2018.

Na początku wspomniałaś o sensorach, które wspomagają Was w pracy. Czy tutaj postępuje jakaś powolna rewolucja? Kiedy możemy liczyć na miasto pełne beaconów gromadzących informacje i usprawniające nasze życie?

Samo gromadzenie danych nie wystarczy. To, że masz dużo nieustrukturyzowanych informacji, wcale nie musi przekładać się na ich jakość. Droga powinna być odwrotna, najpierw musisz mieć pomysł, jak te dane “odszumić” i co z nimi zrobić, a dopiero potem można przejść do montowania inteligentnych sensorów monitorujących ruch uliczny czy tłok w metrze. Należy mieć nadzieję, że właśnie w katalogowaniu tych danych niedługo pomogą nam maszyny i sztuczna inteligencja.

Kiedy mówimy o danych i big data, nie możemy również zapominać jak wielką rolę analizowanie danych odgrywa w polityce. W zeszłym roku widzieliśmy jak mikrotargeting, technologia relatywnie nowa wykorzystująca big data za pomocą nowoczesnych narzędzi, może prowadzić do wygranych kampanii politycznych. Mając odpowiednie narzędzia można zrobić analizę sentymentu w mediach społecznościowych, dość łatwo wyciągnąć na jej podstawie wnioski, co pozwala skutecznie izolować wyborców i adresować do nich przekaz. To pokazało, że nowe technologie też są potężnymi narzędziami politycznymi. Co zostało dość szybko wyeksponowane chociażby w kontekście wyborów w USA.

Takie działania budzą wątpliwości etyczne. Ludzie są katologowani i dostarcza im się wizję świata, w którą wierzą. Tkwią w swoje informacyjnej bańce, a jednocześnie nie mają pojęcia, że są manipulowani.

To ostatnie ważne przedsięwzięcie, które moim zdaniem może zyskać na znaczeniu w 2018 r. Bez wątpienia kwestia etyki maszyn i algorytmów, połączona z ponoszeniem przez nie różnych konsekwencji prawnych. W roku 2017 nieśmiało zaczęły się takie debaty na Harvardzie czy MIT, ale też prywatnie, bo Deep Mind powołała pierwszą radę doradczą, w której zasiada Nick Bostrom, który ma opiniować działania w zakresie etyczności deep learningu i podejmowanych decyzji etycznych maszyn. Efekty tej pracy poznamy dopiero w tym roku. Warto mieć wyczulone oko na temat etyki sztucznej inteligencji. Autonomiczne samochody są tuż za rogiem; w przestrzeni publicznej coraz więcej będzie pojawiać się robotów. Musimy ustalić ile wolności może dostać robot i kto bierze za niego odpowiedzialność. Na razie proponowane są rozwiązania dość uniwersalistyczne, ale przewiduje, że prawdopodobnie odbiją się one od kulturowych uwarunkowań.

Mamy sztuczną inteligencję i maszynowe uczenie, połączoną z popularyzacją i rozwojem robotów. Szykują nam się głębokie zmiany społeczne i w naszym sposobie pracy. Czy powinniśmy zacząć się obawiać, że nasze miejsce pracy zostanie niedługo zastąpione robotem?

Nie popadłabym w jakieś bardzo pesymistyczne tony. Raczej nie powinniśmy się obawiać, że nasz zawód zniknie w przyszłym roku. Spodziewałabym się raczej szerszej dyskusji na temat tego zagadnienia, ewentualnym przeciwdziałaniom czy sposobie radzenia sobie z tym problemem. Oczywiście w tym kontekście wzmaga się dyskusja o dość kontrowersyjnym projekcie dochodu gwarantowanego.

Rok 2018 zapowiada się dla mnie mega interesująco, zwłaszcza w kontekście intelektualnych wyzwań z którymi musimy się zmierzyć, a o których wspomnieliśmy w naszej rozmowie. Mam nadzieję, że uda nam się wypracować sensowne rozwiązania, które pomogą nam pokonać kolejne technologiczne i etyczne bariery na drodze naszego rozwoju.

 

dr Aleskandra Przegalińska – polska filozofka, badaczka rozwoju nowych technologii, zwłaszcza technologii zielonej i zrównoważonej, humanoidalnej sztucznej inteligencji, robotów społecznych i technologii ubieralnych. Obecnie adiunkt w Center for Research on Organizations and Workplaces w Akademii Leona Koźmińskiego w Warszawie. Visiting scholar w Massachusetts Institute of Technology w Bostonie, w MIT Center for Collective Intelligence.

źródło zdjęcia: Unsplash

Powiązane artykuły
Udostępnij post

Zapisz się do newslettera

FreshMail.pl
 

FreshMail.pl