Coraz częściej pytamy się nawzajem: „a ty, co ty robisz z AI?”. W moim świecie – wśród ludzi ze świata wiedzy, kultury i aktywizmu – tak zupełnie szczerze to nie za dużo osób korzysta. Badania też pokazują, że AI wcale nie jest wszechobecne w naszym życiu. Tymczasem słychać głosy, że albo nauczymy się wykorzystywać AI albo okażemy się staroświeccy. Łatwo się nakręcić: „może udowodnię, że jestem nowoczesny, użyję nowej apki AI”.
AI w działaniach społecznych. Subskrybuj newsletter!
Aga Kozak (Sektor 3.0): Jeśli rzucę teraz hasło: „zagrożenia etyczne w kontekście sztucznej inteligencji”, to co jako pierwsze przychodzi Ci do głowy?
Dr Alek Tarkowski: Przychodzi mi do głowy, że źródłem zagrożeń nie są same technologie. Zagrożenia i wyzwania wiążą się z tym, jak różne podmioty, a przede wszystkim prywatne firmy, tworzą systemy AI i wdrażają je w społeczeństwie. Nie przejmuję się scenariuszami rodem z filmu „Terminator” i powstaniem superinteligencji. I sam fakt, że takie scenariusze nam się pojawią w debacie publicznej, można by wręcz nazwać zagrożeniem, a już na pewno są jakimś znakiem czasów, tego, jaki poziom szaleństwa i oderwania od rzeczywistości przyjmuje nasza debata publiczna o technologii.
Ale może jeszcze zaznaczę, że to, co bardzo utrudnia nam w ogóle teraz rozmowę o AI to to, że „sztuczna inteligencja” oznacza strasznie dużo rzeczy. Od roku coraz więcej osób ma kontakt z generatywną inteligencją. Ale jest wiele rozwiązań, o których nie rozmawiamy tak często, a są wdrażane dookoła nas. Na radarach mają je obrońcy praw człowieka.
AI i etyka – zagrożenia
Czyli?
Np. Fundacja Panoptykon przygląda się z jednej strony systemom automatycznego rozpoznawania ludzi. Ale też mówi dużo o algorytmach kształtujących media społecznościowe. To systemy od lat zaszyte w naszą codzienność: na przykład nasz feed w Facebooku czy algorytmy TikToka. Jeśli to wszystko nazwiemy tym jednym pojęciem – „sztuczna inteligencja” – rodzi to konfuzje, bo wtedy nawet pytanie: „czy używasz sztucznej inteligencji?” zaczyna być bez sensu. Bo np. na TikToku nikt nie „używa sztucznej inteligencji”, ale ona tam jest bardzo mocno obecna i oddziałuje na nas wszystkich. Druga ważna kwestia to pytanie o to, kto używa AI. Bo np. jest wielki temat sztucznej inteligencji i wojska – którym ja się nie zajmuję – ale którego punktem styku z innymi tematami AI są te same firmy technologiczne. To też rodzi wyzwanie, jak rozmawiać „o AI” – bo to superszeroki temat.
Co możemy zrobić, żeby mieć wpływ na AI?
Co możemy z tym zrobić, aby mieć na te narzędzia wpływ?
Z jednej strony ważne jest, by użytkownicy – my wszyscy – korzystali z technologii świadomie, krytycznie i ze zrozumieniem. Coraz więcej rozmawiamy o cyfrowych dietach, cyfrowej higienie. To odnosi się też do AI. Najważniejsza jest świadomość tego, co z nami robią technologie. Ale są granice tego, co możemy zrobić na poziomie indywidualnym. Warto rozumieć, jak działa TikTok, że ma wiele funkcji służących wyłącznie przykuciu naszej uwagi na godziny. Ale co z tą świadomością możemy zrobić? Niewiele. Dlatego tak ważne są też rozwiązania systemowe i odpowiednie regulacje technologii. Niektóre z nich są zaskakująco banalne.
Jak zwiększyć przejrzystość technologii AI?
Czyli?
To przede wszystkim tocząca się walka o zwiększenie przejrzystości technologii AI, ale też np. komercyjnych platform. Dziś toczy się wielka batalia choćby o to, żeby niezależni badacze mieli dostęp do danych z serwisów, takich jak Facebook. To ważne na przykład w okresach wyborów, gdy wszyscy powinniśmy wiedzieć, jak platformy kształtują debatę polityczną. Badacze nam w tym pomogą, ale muszą mieć dostęp do danych. Dobry przykład dotyczy wykrywania treści pornograficznych w wielkich zbiorach danych, na których trenuje się systemy AI. Niedawno badacze z Uniwersytetu Stanforda wykryli takie treści w ogromnym zbiorze LAION, jednym z niewielu, które są publicznie dostępne. Taka niezależna weryfikacja pozwala naprawiać te narzędzia. Ale większość zbiorów pozostaje tajemnicą firm, które je wykorzystują. Musimy zresztą polegać na ekspertach, bo te zbiory są naprawdę ogromne. Przykładowo, LAION zawiera informacje o 5 miliardach grafik. W zbiorach tekstowych ta liczba potrafi być sto razy większa.
Trochę dużo do analizy…
Wyszliśmy już z epoki Excela, mamy narzędzia data science i ludzi, którzy potrafią to analizować. Ale ciągle jest ich za mało, w stosunku do liczby programistów tworzących AI. Firmy nie inwestują też wystarczająco dużo w badania etyczne. Okazuje się, że wielki zbiór danych można stworzyć relatywnie łatwo. Dużo trudniej jest dopracować go tak, by służył etycznemu rozwojowi technologii. Grzech pierworodny programistów i data scientists to traktowanie wszystkiego jako danych, które można – a nawet trzeba – wykorzystać w imię tworzenia lepszego AI. Przepraszam za kolokwializm, ale ja naprawdę uważam, że na tym etapie systemy AI to takie maszynki do mielenia kultury, wiedzy i rzeczywistości społecznej.
Czym jest etyka AI?
Czy mamy się tym martwić?
Nie aż tak, jak chcą ludzie, straszący nas podbojem świata przez superinteligencję. Raczej chodzi o to, by wywierać presję na twórcach technologii AI. Wiele problemów pojawia się w momencie, gdy do gry wchodzi wielki biznes. To historia OpenAI, które zaczynało jako organizacja non-profit, ale potem postanowiło zostać firmą, by przyciągnąć intwestorów. A teraz chcą działać jak najbardziej skrycie, rzekomo chroniąc tajemnice biznesowe przed konkurencją. Gdy mówimy, że AI to „czarne skrzynki”, to często kwestia wyłącznie decyzji ich twórców.
Mam też wrażenie, że dochodzimy do takiego społecznego rozbicia na tych, którzy mówią: „to ma być etyczne, chcemy to kontrolować” – i to zazwyczaj nie są ludzie ze świata technologii – i na ten drugi obóz, których odbieram jako mówiących: „no, nie do końca trzeba”. I to jest świat naukowców, koderów i biznesmenów, którzy chcą jak najszybciej rozwijać AI. Dla zaspokojenia ciekawości badawczej, ale też by zarobić krocie.
To czym właściwie jest etyka AI?
To podejście, które zabiega o to, by rozwijając AI nie myśleć tylko o wzroście technologicznym bądź zyskach. Kłopot w tym, że „etyczne AI” powoli może oznaczać wszystko. Także podejścia argumentujące, że możemy zaufać firmom, bo one znają te technologie najlepiej. I nie szkodzi, że się tą wiedzą nie dzielą. Wiele państw, myśląc o regulacji AI ma podejście polegania na współpracy z tymi firmami. Zakładają, że trzeba na nie nałożyć jakieś ograniczenia, ale wolą działać z tą garstką potężnych graczy, niż pozwolić technologii się rozprzestrzenić. I nazywają to kwestią bezpiecznego AI. Jest więc i taki nurt etyczności.
Dobre praktyki w pracy z AI
A może rozwiązaniem byłoby nie „randkować z big techami, ale je kontrolować”?
Tak, ale jest to podejście, w którym za mało myśli się o partycypacji. A jest to klucz do skonkretyzowania idei etycznego AI. Przykładem takich działań jest brytyjski projekt People’s Panel on AI. Zaproszono dwanaście zwykłych osób do obserwowania brytyjskiego AI Summit, spotkania rządów z największymi firmami AI. Eksperci doszkolili ich w kwestiach technicznych tak, by na koniec mogli przedstawić swoją, obywatelską perspektywę. Czyli „nic o nas bez nas”.
Tymczasem mamy rozkręcony hype na AI. Nawet moje manicurzystki aktualnie zamiast pytać o coś Google pytają Chata GPT.
To ciekawe, a o co go pytają?
Czy jesteśmy skazani na AI?
Ostatnio, gdy u nich byłam i pytały o przepis na makaron, porady związkowe, o podatki. Prosiły też AI o napisanie im tekstu na instagram.
Faktycznie, coraz częściej pytamy się nawzajem: „a ty, co ty robisz z AI?”. W moim świecie – wśród ludzi ze świata wiedzy, kultury i aktywizmu – tak zupełnie szczerze nie za dużo osób korzysta ze sztucznej inteligencji. Badania też pokazują, że AI wcale nie jest wszechobecne w naszym życiu. Tymczasem słychać głosy, że wykuwa się teraz „klasa AI”. Albo nauczymy się wykorzystywać AI, albo okażemy się staroświeccy. Łatwo się nakręcić: „może udowodnię, że jestem nowoczesny, użyję nowej apki AI”. Czytam głosy o tym, że promptowanie to najważniejsza kompetencja przyszłości. „Jak się nie nauczysz promptować, to po prostu wypadniesz z rynku.” Myślę, że to nie jest takie proste. Po pierwsze, praca będzie automatyzowana. W wielu wypadkach nawet jak będziesz umiała promptować, to i tak stracisz pracę. Mam nadzieję – może złudną – że da się jakoś to inaczej ułożyć.
To jeszcze jeden aspekt etyki: rozmawianie o tym, jak wspólnie tę nową technologię ustawić, by pracowała w interesie publicznym. Etyka to także mówienie, że różne opcje są możliwe, że nie jesteśmy skazani na AI. To wreszcie zdrowy dystans. Oczywiście fajnie jest ćwiczyć narzędzia AI i mieć z nimi kontakt, no ale gdy słyszę, że ktoś zastępuje wyszukiwarkę Chatem GPT – nie do końca wiedząc, dlaczego – to myślę, że najfajniejszy użytkownik to jest taki, który umie wybierać narzędzia i który je rozumie. Więc klasycznie – wracamy tu do konieczności edukacji.
Czy AI to bańka?
A to nie jest tak, że zły pieniądz wypiera dobry pieniądz? Że rzeczy mogą być idealistyczne w założeniu, ale potem i tak się skundlą? Że wybierzemy łatwe?
Bardzo trudno rozsądzić, bo ścieżka rozwoju samej technologii, ale i jej wykorzystania nie jest jeszcze jasna. Są tacy, którzy opowiadają, że AI to bańka – podobnie jak NFT: miało być przyszłością, a okazało się kilkuletnim boomem spekulacyjnym, pod wieloma względami szkodliwym. Nie zniknęło, ale straciło na znaczeniu. Ja szczerze mówiąc nie uważam, że to będzie bańka, choćby dlatego, że w AI inwestują największe firmy, które pozycję globalnych potęg osiągnęły tworząc najpopularniejsze platformy społecznościowe. To zresztą powód, dla którego tak bardzo trzeba szukać alternatyw, na przykład inwestując w projekty publiczne i obywatelskie. Te rozwiązania wejdą pod strzechy. Pytanie tylko, kto będzie je kontrolował.
Czy polska może mieć swój ChatGPT?
Gdy mówisz: „szukać alternatyw” to masz na myśli…
I tu się robi ciekawe, jak one miałyby wyglądać. Na przykład alternatyw takich, żeby były modele AI inne niż te oferowane przez największe firmy. W Polsce powstał niedawno nowy model językowy, nazywa się Bielik. Jest otwarty, dostępny online, a jego dane treningowe każdy może zweryfikować. Ale nie jest jeszcze tak dobry w konwersacjach jak oferty największych graczy. I czasem słychać pytanie: czy Polska w takim razie może mieć swój ChatGPT? Odpowiedź brzmi, oczywiście nie, bo nas na to nie stać. Ale to też źle zadane pytanie. Bo okazuje się, że przydatne mogą być też modele małe, może nawet niedoskonałe.
Okazuje się, że w administracji publicznej potrzeba prostych narzędzi do analizy dokumentów. W tym celu nie potrzeba bota mówiącego piękną polszczyzną lub ciepłym głosem influencerki. Potrzeba prostego robota, robiącego dobrze jedną, biurokratyczną czynność. Tak też może wyglądać AI.
Ciekawym obszarem będzie edukacja, gdzie już pojawia się pytanie, czy polskie uczelnie będą musiały wykupić subskrypcje jednego z komercyjnych rozwiązań. Mam nadzieję, że zamiast tego stworzymy alternatywę publiczną i zadamy też sobie pytanie: jak świadomie wykorzystać AI w edukacji.
Potrzeby są duże. Czy im sprostamy?
Mnie włos się jeży na głowie, gdy słyszę, że Polska jest biznesowym challengerem AI i że dzięki niej będziemy najbogatsi. Po pierwsze, raczej nie będziemy najbogatsi, a jeśli będziemy, to nie dzięki magii technologii. Słyszę jakieś echo mesjanistycznych zapędów, namaszczanie młodych polskich programistów na wybawicieli ojczyzny w czasach cyfrowych. Problem w tym, że najlepsi programiści wyjeżdżają zagranicę. Pracują w najpotężniejszych firmach, ale tak naprawdę nie wiadomo, jaki z tego płynie zysk wspólny. A na takim zysku mi zależy. Nie potrzebujemy w Polsce rewolucji technologicznej, tylko rozwiązań służącym nam wszystkim. Rozwiązujących np. problemy klimatyczne, a nie rodzące kolejne.
Jak pracować z AI w NGO?
Wracając do polskich modeli, takich jak Bielik czy PLUMM. Mało kto wie, jak dałoby się je zastosować.
Jesteśmy teraz w takim momencie, jak w 1991, gdy połączono Polskę ze światowym Internetem. Czy wszyscy wiedzieli, po co to jest? Wiedzieliśmy, że możemy czytać wiadomości z całego świata. Ale potrzeba było dekady, dwóch, by te użycia zrozumieć. Z AI będzie tak samo – to kolejna technologia, dla której nie ma oczywistej odpowiedzi, po co to jest. To tworzenie pola nowych możliwości, które się jeszcze wielokrotnie przetasują. I tu znów wracam do etyczności. Bo niestety sprzedawać się będą największe głupoty. A do tego te narzędzia wypuszczane są nadal z błędami, halucynujące, na siłę wdrażane. Być może właśnie etyką AI jest zadawanie sobie pytania, po co nam to jest, a nie tylko jak na tym zarobić. Dlatego potrzebujemy powszechnie dostępnych, otwartych i tanich alternatyw, abyśmy wszyscy mogli szukać rozwiązań. Przykładowo, polskie NGO-sy są świetne w eksperymentowaniu, w innowacjach społecznych. Wierzę, że także w przypadku AI mogą znaleźć wymiar etyczny, zastosowania tych technologii.
Czy AI może pomóc z walką ze zmianami klimatycznymi?
Masz jakieś ulubione etyczne wdrożenie?
Jest ich coraz więcej. Vesuvius Challenge odszyfrowuje z pomocą AI starożytne papirusy. Firma Clay tworzy powszechnie dostępny model pozwalający analizować dane satelitarne, w celu walki ze zmianami klimatycznymi. Potrzebujemy więcej takich przykładów, pokazujących, że AI może być tworzone odpowiedzialnie, przydatne społecznie i dostępne dla wszystkich. Bo będzie też wiele systemów AI, które nadal będą tworzone na rympał.
Przeczytaj także:
- Z AI rozmawiajmy jak z dzieckiem albo osobą z innego kręgu kulturowego, która zupełnie nas nie zna
- Jak sztuczna inteligencja może ci pomóc w nauce?
- Sztuczna inteligencja a prawa autorskie – co warto wiedzieć?
- Sztuczna inteligencja w organizacjach społecznych – dobre praktyki Fundacji Digital University i Stowarzyszenia Cyfrowy Dialog
- Jak bezpiecznie korzystać z generatywnej sztucznej inteligencji?
Dr Alek Tarkowski: Dyrektor Strategiczny w Open Future, doktor socjologii PAN. Współtwórca Creative Commons Polska (2005), założyciel Centrum Cyfrowego (2010). Współprzewodniczący przeglądu z okazji 10. rocznicy Deklaracji Cape Town Open Education. Jeden z autorów Open Policy Index. Brał udział w opracowywaniu epodreczniki.pl. Członek rady doradczej fundacji Inspiring Girls Polska, współzałożyciel COMMUNIA, Europejskiego Stowarzyszenia na Rzecz Domeny Publicznej. Członek Rady Doradczej Prezesa Rady Ministrów Polski (2008-2011), współautor raportu strategicznego „Polska 2030” (2009). Absolwent Akademii Liderów Polski oraz Stypendysta Junior Fellow w McLuhan Program on Culture and Technology na Uniwersytecie w Toronto. Opublikował, wraz z Mirkem Filiciakiem, zbiór esejów pt. „Dwa zero. Alfabet nowej kultury i inne eseje”. Od 2006 pisze na bloga”Polityki”.