Ułatwienia dostępu

Search
Close this search box.
Search
Close this search box.

Jak ocenić etyczne i ekologiczne koszty AI dla organizacji pozarządowej?

blog-sektor30-cover-1440x810-–-kopia
Spis treści

Rozwój sztucznej inteligencji odbywa się kosztem zasobów naturalnych, wykorzystywanych do budowy i zasilania fizycznego sprzętu, na którym AI działa. Doskonalenie wielkich modeli językowych wymaga żmudnej pracy, nie tylko programistów i programistek, ale również osób, które klasyfikują i weryfikują treści. NGO i firmy, którą chcą wdrażać AI do swoich działań, powinny być świadome nie tylko potencjału tej technologii. Decyzje o tym, czy i jak korzystać z AI, powinny opierać się również na rozpoznaniu i mitygowaniu kosztów i konsekwencji etycznych, których sztuczna inteligencja ma wiele. 

Mniej i bardziej ukryte koszty sztucznej inteligencji 

Większość dyskusji o generatywnej AI i napędzających ją wielkich modelach językowych, takich jak GPT 4.0 od OpenAI czy PaLM od Google, skupia się na zadaniach, które narzędzia te mogą potencjalnie zautomatyzować lub ułatwić. Negatywnymi konsekwencjami, które porusza się najczęściej w tym kontekście, są:

  • znikanie zawodów i miejsc pracy,  
  • zalew Internetu fałszywymi treściami (od tekstów po deep fakes, czyli nieprawdziwe zdjęcia i filmy), 
  • wyzwania prawno-autorskie generowania treści modelami, które uczyły się na chronionych materiałach. 

To jednak nie jedyne konsekwencje budowania i korzystania z AI. Jak każda technologia cyfrowa, tak i aktualnie najpopularniejsze narzędzia sztucznej inteligencji potrzebują zarówno pracy ludzkiej, jak i infrastruktury fizycznej, aby działać. Kiedy uruchamiamy stronę WWW lub aplikację i po kilku sekundach, magicznie otrzymujemy tekst, obrazek lub kod to łatwo zapomnieć, że treści te nie powstają znikąd. 

Przyjrzyjmy się więc negatywnym skutkom i kosztom korzystania z AI oraz sposobom, w jakich organizacje pozarządowe i firmy mogą pomóc je niwelować. Dobrą, ale niekompletną ściągą, jest unijna regulacja AI Act, która ocenia rozwiązania sztucznej inteligencji m.in. w takich aspektach jak: 

  • informacje o źródłach danych, 
  • zarządzanie danymi pod kątem ograniczania uprzedzeń (ang. bias), 
  • wykorzystywanie danych chronionych przez prawo autorskie, 
  • mierzenie i ograniczanie zużycia energii potrzebnej do nauki modelu, 
  • zarządzanie ryzykami, testowanie i ewaluacja modeli.
Do Foundation Model Providers Comply with the Draft EU AI Act? Stanford University, Center for Research on Foundation Models (CRFM)

Koszty środowiskowe AI 

Coraz więcej technologii chmurowych i opartych o AI wymaga coraz większej mocy obliczeniowej, a co za tym idzie, rośnie ich zapotrzebowanie na energię. W przypadku sztucznej inteligencji energia potrzebna jest najpierw do wydobywania minerałów potrzebnych do budowy sprzętu, na którym AI uczy się i pracuje, potem do wyszkolenia modelu, a następnie wykorzystywana jest  podczas generowania każdej odpowiedzi na nasze prompty 

Całkowity ślad węglowy sztucznej inteligencji jest trudny do zmierzenia i nie jest jedynym kosztem środowiskowym tej technologii. Intensywna praca centrów komputerowych oznacza ogromne zużycie wody (wstępne, niezrecenzowane badania wskazują nawet na 700 000 litrów wody, zużywanych podczas nauki jednego modelu LLM). Brakuje również dokładnych informacji na temat emisji CO2 pojedynczego zapytania do generatywnego AI. Szacuje się, że jest ona od 4 do 5 razy większa niż wartość zapytania w wyszukiwarce. Jedno wyszukiwanie w Google powoduje emisję około 0,2 g CO2.

Na pocieszenie warto wspomnieć, że branża informatyczna należy do czołówki, jeśli chodzi o zakup i zasilanie swoich działań odnawialnymi źródłami energii. Niestety, problemy zużywania wody, metali rzadkich oraz lokalnych kosztów środowiskowych wydobywania minerałów oraz budowy nowych centrów danych są podnoszone znacznie rzadziej. 

Jeśli wdrażasz generatywną AI na większą skalę do działań NGO, zastanów się nad tym, czy dane działanie można wykonać za pomocą technologii o mniejszym śladzie środowiskowym. Zwracaj uwagę również na informacje o tym, czy usługi, których używasz zasilane są odnawialnymi źródłami energii. Sprawdź również, czy infrastruktura cyfrowa Twojej organizacji społecznej może zacząć korzystać z tak pozyskiwanej energii elektrycznej. 

Nieetyczne warunki pracy na zapleczu OpenAI   

Za każdym narzędziem sztucznej inteligencji stoją ludzie – nie tylko bardzo dobrze opłaceni programiści i programistki, ale również ogromna liczba osób, które oznaczających dane w celu ich przeszkolenia oraz filtrowania niechcianych treści. Do tego drugiego rodzaju pracy firmy tworzące AI przyznają się mniej chętnie (podobnie jak serwisy społecznościowe). Jest to praca wyjątkowo często zlecana do innych państw i podwykonawców (outsource’owana), nisko płatna i niestabilna.  

Śledztwo The Verge i New York Magazine szczegółowo opisało warunki pracy w firmie Remotask z Kenii, w której oznacza się treści m.in. dla OpenAI. W ostatnich miesiącach pracownicy i pracowniczki tej firmy oraz innych organizacji, pracujących m.in. nad moderacją Facebooka, rozpoczęli protesty i tworzą związek zawodowy moderatorów treści. Do ich postulatów należą nie tylko większa stabilność zatrudnienia, ale również wsparcie psychologiczne dot. oceny treści zawierających przemoc. 

Drugim obszarem pracy, który mogą naruszać modele i narzędzia AI znajdujące się w rękach nieetycznych firm, jest kwestia wykorzystywania danych i wizerunków bez zgody i wynagradzania. Zwracają na to uwagę graficy i graficzki, których treści zostały wykorzystane do szkolenia modeli (o czym więcej za chwilę), ale również aktorskie i scenopisarskie związki zawodowe. Aktorzy i aktorki w USA od kilku miesięcy protestują m.in. przeciw możliwościom stosowania przez studia AI do pisania scenariuszy, czy wykorzystywania cyfrowych wizerunków. 

Globalne rozproszenie rynku pracy utrudnia bezpośrednie wsparcie pracowników i pracowniczek, ale nie jest niemożliwe. Branża technologiczna podlega coraz silniejszym regulacjom oraz naciskom ze strony opinii publicznej. Jako organizacja pozarządowa możesz wspierać takie działania podejmowane np. przez koalicje organizacji cyfrowych i związki zawodowe. 

Nadużywanie prawa autorskiego i otwartych zasobów 

W narzędziach do generowania grafik z pomocą AI można odtworzyć style znanych artystów i artystek, czasem widać ślady znaków wodnych z baz zdjęć stockowych lub fragmenty do złudzenia przypominające prace żywych osób. Przez lata firmy szkoliły swoje modele na treściach z sieci bez większych ograniczeń. Działo się to zarówno na zasobach chronionych przez prawo autorskie, jak i dostępnych na licencjach Creative Commons otwartych zasobach (o czym pisze więcej Katarzyna Drożdzal na łamach Form). Chociaż generatywna sztuczna inteligencja może być nowością na rynku, to istniejące przepisy mają do nich zastosowanie. W najbliższych latach sądy (i regulatorzy) będą musiały ustalić, jak je stosować (lub zmienić).

Wyzwania, na które warto zwrócić uwagę, zwłaszcza jako organizacje społeczne:   

  1. Większość narzędzi AI nie podaje informacji, na jakich danych wytrenowało swoje modele, co oznacza ryzyko po stronie użytkowników, że w wynikach ich prac znajdą się treści chronione (lub co bardziej prawdopodobne, wysoce je przypominające). 
  2. Nie jest jasne, jak utwory generowane przez sztuczną inteligencje będą kwalifikować się (lub nie) do bycia chronionymi przez prawo autorskie różnych państw. 
  3. Brak jest aktualnie systemu wynagradzania twórców, których utwory zostały wykorzystane do nauki modeli AI, co może znacząco wpłynąć na ich sytuację ekonomiczną. Zwracają na to uwagę nie tylko graficy i graficzki, ale również aktorzy i aktorki, protestujący w USA przeciw możliwościom stosowania przez studia AI do pisania scenariuszy, czy wykorzystywania cyfrowych wizerunków. 

Organizacje społeczne i firmy powinny domagać się od dostawców usług AI takich warunków świadczenia usług, które potwierdzają, że miały odpowiednie licencje na dane, z których korzystały do szkolenia modeli. Dostawcy narzędzi AI dopiero zaczynają wprowadzać odpowiednie gwarancje dla klientów w tym obszarze (niedawno swoje opublikował Microsoft). 

Warto również uwzględnić warunki korzystania z narzędzi generatywnego AI w umowach z podwykonawcami. W niedalekiej przyszłości, kiedy narzędzia tego typu pozwolą na szkolenie modelu na podstawie własnych zasobów organizacji, łatwiej będzie określić zarówno status prawny źródeł, jak i wyników pracy AI. Do tego czasu firmy i organizacje społeczne powinny pozostać ostrożne wobec stosowania AI do tworzenia treści. 

Co możesz zrobić w swojej NGO? 

Etyczne i zgodne z prawem korzystanie z generatywnej sztucznej inteligencji w tworzeniu treści może być dużym wyzwaniem dla organizacji społecznych. Na co zwracać uwagę?  

  • Zastanówcie się, jaki poziom ryzyka związanego z publikowaniem treści generowanych przez AI jesteście gotowi zaakceptować. Czy jest do dla Was kluczowe działanie i ważny element pracy, czy tylko uleganie modzie?
  • Wybieraj narzędzia oparte o modele, które informują o tym, na jaki danych trenują i jak respektują prawa autorskie i które zapewniają odpowiednie gwarancje prawne. 
  • Zaktualizuj wzory umów tak, aby uwzględnić Twoje cele i potrzeby względem wykorzystania treści generowanych przez AI (np. obowiązek poinformowania Cię przez podwykonawcę o korzystaniu z takich narzędzie lub zakaz ich używania). 
  • Oznaczaj treści generowane przez AI, jeśli takie tworzysz i publikujesz.

Co dalej z AI w organizacjach społecznych? 

Generatywna sztuczna inteligencja zmienia charakter tworzenia treści, od promocyjnych aż po naukowe. Na razie wydaje się, że tempo rozwoju nowych modeli i narzędzi jest znacznie szybsze od tego, w jakim ustalamy normy i regulacje ich stosowania. Co nie oznacza, że należy się temu zupełnie poddawać. 

Na działania organizacji, które chcą w etyczny i profesjonalny sposób korzystać z rozwiązań AI, wpłyną już niebawem regulacje prawne oraz ograniczenia w samych technologiach. OpenAI wprowadza możliwość blokowania przez strony WWW ich robotów, które pozyskują dane do nauki nowych modeli językowych. Generator grafik od Adobe powstał na bazie zdjęć i grafik licencjonowanych wcześniej przez tę firmę. Jeśli regulacje unijne mogły przekonać Apple do zmiany ładowarek na standardowe USB-C, to być może również firmy AI będą poprawiać swoje narzędzia, aby stawały się mniej szkodliwe dla środowiska i warunków pracy. Do tego czasu organizacje powinny zachować wysoki poziom ostrożności i wymagać od dostawców AI wysokich standardów etycznych i środowiskowych. 

Przeczytaj także:

Newsletter
Dołącz do grona ponad 10 000 zaangażowanych subskrybentów i dwa razy w miesiącu otrzymuj nieodpłatnie nową dawkę wiedzy, inspiracji oraz technologicznych recenzji i porad od ekspertów i ekspertek programu Sektor 3.0.
Newsletter
Newsletter
Dołącz do grona ponad 10 000 zaangażowanych subskrybentów i dwa razy w miesiącu otrzymuj nieodpłatnie nową dawkę wiedzy, inspiracji oraz technologicznych recenzji i porad od ekspertów i ekspertek programu Sektor 3.0.
Festiwal Sektor 3.0 już za
dni   
:
: