PL  |  EN

Sztuczna inteligencja – czy ktoś nad tym panuje?

Film Terminator niejako ukształtował postrzeganie sztucznej inteligencji (SI). Wizja Jamesa Camerona ma już 34 lata, jednak wciąż pobudza wyobraźnię sceptyków. Trzeźwo myślący człowiek, zdaje sobie sprawę, że Holywoodzki scenariusz jest w tym wypadku mało prawdopodobny. Nie oznacza to jednak, że SI nie niesie za sobą pewnych niebezpieczeństw. Zadaniem ludzi jest obserwowanie, kontrolowanie i czerpanie wiedzy z myślących algorytmów.

Rozwiązania z zakresu sztucznej inteligencji tworzymy dla własnej wygody. Aby wesprzeć swoje działania i załatać własne niedoskonałości. Sztuczna inteligencja ma być partnerem człowieka. Wszak inteligencja nie jest synonimem przebiegłości. Już od dawna komputery są od nas mądrzejsze. Początkowo ich przewagi można było dostrzec w kwestii obliczeń matematycznych. Jeszcze w 1952 odnotowano pierwszy przypadek przegranej człowieka z komputerem w grze logicznej – chodziło o stosunkowo prostą rozgrywkę w kółko i krzyżyk. Jednakże już w 1994 roku, profesjonalny szachista po raz pierwszy przegrał ze sztuczną inteligencją. Następnie w 1997 roku wyższość maszyn musiał uznać sam Garry Kasprov, czyli prawdziwa legenda szachowego środowiska. Ostatnim bastionem gier logicznych, w których dominował człowiek było GO, czyli gra w której pierwsze zagranie może być przeprowadzone na 361 sposobów. Niestety w marcu 2016 roku dominację człowieka ukrócił specjalnie opracowany komputer Google. Po długich treningach pokonał w GO Koreańczyka Lee-Sedol, będącego wielokrotnym mistrzem świata w swojej dziedzinie. Czuję się nieco bezsilny. Nawet jeśli bym wrócił i powtórzył rozgrywkę, sądzę, że nie byłbym jej w stanie wygrać – przyznał pokonany. Aktualnie SI (sztuczna inteligencja) może zostać pokonane w szachy wyłącznie przez inne szachy. Potęgę poszczególnych algorytmów określa się więc za pomocą czasu jaki potrzebują na skuteczną naukę gry. Ostatnio Google ogłosiło, że SI AlphaZero po 4 godzinach rozgrywki z samą sobą, poznało na tyle dobrze mechanikę szachów, że było w stanie rywalizować z jednym z najlepszych algorytmów szachowych – Stockfish. Biorąc pod uwagę szybkość i skuteczność samorozwoju algorytmów takich jak AlphaZero, ludzkość już nie ma żadnego odwrotu. Pozostaje tylko nauka i cierpliwa obserwacja.

Pojawia się więc dość istotne pytanie – kto nad tym wszystkim czuwa? Zaskakujący może być fakt, że nie istnieje jeszcze żadna państwowa lub międzynarodowa organizacja nadzorująca prace nad sztuczną inteligencją. Wiele krajów nie posiada nawet rozwiązań prawnych przewidujących podstawowe umiejętności SI – takie jak sterowanie samochodami i dronami. Można przypuszczać, że rok 2018 będzie stanowił pewnego rodzaju przełom w kwestii regulacji dotyczących SI.

Problem jest naprawdę palący i wcale nie chodzi tu o bunt maszyn i groźbę przejęcia władzy nad ludzkością. Wiele firm wykorzystuje SI do własnych celów, samodzielnie czuwając nad rozwojem technologii i skrzętnie wykorzystując możliwości wykraczające poza ludzkie umiejętności, a nawet pojmowanie. Nawet pozornie etyczne przesłanki bez odpowiednich regulacji mogą doprowadzić do niechcianych efektów. Przykładowo Facebook posiada funkcjonujący algorytm SI, identyfikujący użytkowników zagrożonych popełnieniem samobójstwa. Będzie on przekazywał informacje o niepokojących zachowaniach pracownikom firmy. Jeśli potwierdzą oni obawy algorytmu, podejmą próbę kontaktu i pomocy danej osobie. Środki prewencji w zakresie samobójstw czy terroryzmu nie są wymysłem samego Facebooka. Od lat pojawiały się głosy, od opinii publicznej, o konieczności wprowadzenia takich usprawnień. Pojawia się jednak pytanie o prywatność analizowanych osób. Pierwsza kwestia to fakt analizy danych przez skrypt, którego kod nie został upubliczniony. Drugi problem to przekazywanie informacji o osobach pracownikom Facebooka. Musimy bowiem zdecydować czy osoby objęte problemem depresji powinny mieć wybór kto otrzymuje informacje o ich problemach oraz od kogo chcą przyjąć pomoc. Odpowiedź wydaje się oczywista.

Media społecznościowe to jednak dopiero wierzchołek góry lodowej. Można bowiem zapytać czy SI może podejmować w pełni etyczne decyzje? Czy zachowanie algorytmu oparte o logiczne podstawy pozwoli rozwiązywać klasyczne dylematy moralne? Należy rozważyć również, czy SI będzie w stanie odpowiednio interpretować ludzkie uczucia. Wszak termin taki jak „chwilowa niepoczytalność” występuje nawet w prawodawstwie, ale jak miałby zostać uwzględniony przez komputer?

Istotną sprawą jest również kwestia własności intelektualnej. Załóżmy, że algorytm SI będzie uczył się na bazie informacji zdobywanych w Internecie. Jeśli natknie się na materiały chronione prawem autorskim, a następnie je wykorzysta bez podawania źódł to czy taką sytuację można nazwać przywłaszczeniem lub piractwem? A jeśli tak, to kto powinien odpowiadać za takie naruszenie – właściciel autonomicznego kodu, jego projektant, a może samo SI?

Niejednoznaczna jest również kwestia rozwiązań w zakresie dostępu do kodu SI. Czy powinny istnieć organy nadzorcze, które miałby bezwzględne prawo do wglądu w algorytm sztucznej inteligencji? Czy może w kwestii kontroli zaufać jedynie producentom oprogramowania, narzucając im pewne normy w zakresie samokontroli?

Nie znamy odpowiedzi na te pytania. Właściwie to nikt ich nie zna. Rozważania z tego zakresu pozostają tematem debat akademickich, nie wychodząc poza teoretyczne spojrzenie. Tymczasem zaawansowane SI pracują już dziś. Całe szczęście pojawiają się pierwsze sygnały ze świata, sugerujące że w tym roku temat zostanie potraktowany poważnie. Jeszcze w listopadzie 2017 roku, rząd Wielkiej Brytanii utworzył Centrum Etyki Danych i Innowacji, mające pełnić rolę pierwszego na świecie organu doradczego w zakresie bezpieczeństwa i etyki innowacji związanych ze sztuczną inteligencją i technologiami opartymi na danych. Niestety słowo „doradczy” jest dość wymowne. Ogłoszenie nie zawierało również szczegółów dotyczących uprawnień nowej jednostki. Pewne wskazówki dotyczące zarządzania SI przynosi natomiast unijne rozporządzenie RODO. Przewiduje ono dostęp do informacji na temat sposobu i skutku działania algorytmu, dla osób których dane przetwarza. Niestety sformułowanie jest dość ogólnikowe. Na świecie wciąż wypracowanych schematów działania, dlatego regulacje SI muszą być przeprowadzane w wyniku obserwacji technologii na wielu poziomach. Obecny rok to etap, w którym nie da się takich spraw pominąć.

Co ciekawe pewne rozwiązania wychodzą ze strony samych przedsiębiorców. Elton Musk jest założycielem wielu przedsiębiorstw bazujących na potędze SI. Jednocześnie należy do głównych sceptyków jeśli chodzi zezwolenie na jej swobodny rozwój. Z jego inicjatywy powstał instytut badawczy OpenAI, którego budowa pochłonęła miliard dolarów. Jego zadaniem jest kontrola, analiza i rozbudowa koncepcji SI. Prace prowadzone w instytucie mają doprowadzić do upowszechnienia się sztucznej inteligencji, ale w bezpiecznej formie z ogólnodostępnym kodem. Zdaniem Muska, taki system to rodzaj samoregulującego się mechanizmu, który nie pozwoli organizacjom nastawionym na zysk uzyskać niebezpiecznego monopolu na rozwiązania, które mogą przekraczać wyobraźnię ich samych.

Na koniec warto przypomnieć słowa Stephen Hawkinga opublikowane w The Independent. Stwierdził on, że „stworzenie sztucznej inteligencji byłoby największym przełomem w historii ludzkości. Niestety, może być również ostatnim, chyba że nauczymy się panować nad związanym z nią ryzykiem”.

Powiązane artykuły
Udostępnij post

Zapisz się do newslettera

FreshMail.pl
 

FreshMail.pl