Sztuczna inteligencja coraz śmielej wkracza w działalność NGO-sów, projektów badawczych czy edukacyjnych. Zwiększa efektywność pracy, obniża koszty i pomaga docierać do nowych odbiorców. Ale czy korzystamy z niej odpowiedzialnie? Czy wiemy, jakie prawa mają użytkownicy? Czy mamy jasność, kto odpowiada, jeśli coś pójdzie nie tak? Oto sześć pytań, które każda organizacja – zwłaszcza non-profit – powinna sobie zadać, zanim wdroży rozwiązania AI. A na koniec tekstu – propozycja: jak stworzyć kodeks AI dla Twojej organizacji społecznej.
#1 Kto odpowiada, gdy AI się pomyli?
W tym momencie, przy braku szczególnych regulacji dotyczących odpowiedzialności za szkody wyrządzone przez AI, stosuje się ogólne przepisy, w szczególności Kodeksu Cywilnego, a więc przede wszystkim odpowiedzialność na zasadzie winy. Oznacza to, że podmiot prawa (osoba fizyczna, osoba prawna lub jednostka organizacyjna posiadająca zdolność prawną) może ponieść odpowiedzialność cywilną za szkodę wyrządzoną przez działanie lub zaniechanie związane z systemem sztucznej inteligencji (AI), jeżeli można mu przypisać winę.
- Dopuścił się winy umyślnej, co ma miejsce, gdy świadomie i z zamiarem bezpośrednim lub ewentualnym naruszył normy prawne lub zasady współżycia społecznego, prowadząc do powstania szkody. W odniesieniu do AI mogłoby to polegać na celowym zignorowaniu zidentyfikowanego, wysokiego ryzyka związanego z działaniem systemu AI i godzeniu się na ewentualne negatywne skutki, mimo pełnej świadomości możliwych błędów lub szkodliwego działania systemu.
- Dopuścił się winy nieumyślnej (niedbalstwa), która zachodzi, gdy podmiot nie dochował należytej staranności wymaganej w danych stosunkach, co skutkowało powstaniem szkody, nawet jeśli nie miał zamiaru jej wyrządzenia. W kontekście AI, wina nieumyślna mogłaby przejawiać się w:
- niedochowaniu należytej staranności na etapie projektowania, tworzenia lub testowania systemu AI, np. poprzez zastosowanie nieodpowiednich danych treningowych, niewystarczające testy bezpieczeństwa;
- niewłaściwym doborze systemu AI do konkretnego zadania lub jego niepoprawnej konfiguracji;
- braku odpowiedniego nadzoru nad działaniem systemu AI, w tym braku monitorowania jego funkcjonowania i reagowania na wykryte anomalie lub błędy;
- niewystarczającym zabezpieczeniu systemu AI przed nieuprawnionym dostępem lub manipulacją.
Dodatkowo pamiętajmy, że nie tylko „organizacje”, ale także osoby fizyczne (np. programista, operator systemu AI, użytkownik) ponoszą tę odpowiedzialność.
Obecnie polskie prawo, w tym orzecznictwo i doktryna, znajduje się na wczesnym etapie kształtowania bardziej specjalistycznych zasad odpowiedzialności za działania sztucznej inteligencji. Ten stan rzeczy pociąga za sobą brak pełnej przewidywalności co do przyszłych rozstrzygnięć. Warto przy tym zaznaczyć, że dyskusja prawnicza otwiera się na możliwość pójścia w kierunku odpowiedzialności na zasadzie ryzyka. Jest to reżim, który dla poszkodowanego upraszcza dochodzenie roszczeń, gdyż nie wymaga on udowodnienia winy po stronie podmiotu np. odpowiedzialnego za dane AI.
#2 Jak chronić dane osobowe w systemie AI w NGO?
Gdy system AI przetwarza dane osobowe, np. w celu profilowania beneficjentów, analizowania zachowań czy personalizacji usług – organizacja musi przestrzegać pełnych wymogów wynikających z RODO.
Chcąc zadbać o dane, które przetwarzasz, zadaj sobie te pytania:
- Jaka jest moja podstawa prawna przetwarzania danych? A jeżeli jest nią zgoda, to czy posiadam ważną i świadomą zgodę użytkownika na przetwarzanie jego danych przez narzędzia AI?
- Czy zakres danych jest ograniczony do minimum – zgodnie z zasadą minimalizacji (czyli przetwarzamy tylko to, co naprawdę potrzebne)?
- Czy sprawdziliśmy, czy konieczne jest przeprowadzenie przez nas Oceny Skutków dla Ochrony Danych (DPIA)? Często będzie to konieczność przy korzystaniu z AI.
- Jak realizujemy zasadę przejrzystości i obowiązki informacyjne? O ile nie anonimizujemy danych, to będziemy mieli obowiązek informować osobę w sposób jasny, zrozumiały i łatwo dostępny o wykorzystaniu AI do przetwarzania ich danych osobowych.
I tak dalej – takim pytaniom dotyczącym danych osobowych można byłoby poświęcić dodatkowy artykuł.
#3 Czy użytkownik wie, że rozmawia z AI?
Transparentność to jeden z fundamentów etycznego stosowania sztucznej inteligencji. Zgodnie z założeniami unijnego AI Act, organizacje (będące dostawcami) mają obowiązek jasno informować użytkowników, że wchodzą w interakcję z systemem AI – w sytuacjach, gdy nie jest to dla odbiorcy oczywiste.
Niezależnie od zapisów AI Act, to informowanie użytkownika, że ma do czynienia z AI, pozwala mu na bardziej świadomą ocenę ryzyka i podejmowanie decyzji. Choć samo poinformowanie nie zwalnia automatycznie organizacji z odpowiedzialności za ewentualne błędy czy szkodliwe działanie samego systemu AI, to jednak sytuacja prawna organizacji jest lepsza, gdy działa transparentnie.
Więc tak, zdecydowanie „lepiej poinformować”, ponieważ między innymi:
- może to osłabić argumenty o winie organizacji w ewentualnych sporach cywilnych o odszkodowanie, ponieważ organizacja dochowała należytej staranności w zakresie informowania.
- buduje to zaufanie i jest zgodne z zasadami etyki, co długofalowo również może zmniejszać ryzyko konfliktów prawnych.
- chroni to przed zarzutem stosowania nieuczciwych praktyk.
Należy jednak pamiętać, że sama transparentność co do faktu użycia AI nie jest polisą ubezpieczeniową od wszelkiej odpowiedzialności. Jeśli system AI jest wadliwy, dyskryminujący, narusza inne prawa (np. prywatności w sposób inny niż tylko brak informacji) lub jego działanie wyrządza szkodę z innych przyczyn, organizacja nadal może ponosić za to odpowiedzialność. Transparentność jest jednak fundamentalnym krokiem w kierunku odpowiedzialnego wdrażania AI.
#4 Jak radzić sobie z uprzedzeniami algorytmów sztucznej inteligencji?
Sztuczna inteligencja „uczy się” na podstawie danych, które otrzymuje. Problem w tym, że dane te często odzwierciedlają istniejące w społeczeństwie stereotypy i nierówności dotyczące płci, pochodzenia, wieku czy statusu ekonomicznego. W efekcie system AI może nie tylko powielać te schematy, ale wręcz je wzmacniać, prowadząc do dyskryminacji lub wykluczenia określonych grup.
Dla organizacji społecznych, które korzystają z AI np. w procesach rekrutacji do programów, analizy potrzeb beneficjentów czy personalizacji wsparcia – przeciwdziałanie uprzedzeniom (algorithmic bias) to obowiązek nie tylko etyczny, ale i prawny. Wynika on m.in. z przepisów Kodeksu pracy (np. art. 18³ᵃ § 1 dotyczący równego traktowania w zatrudnieniu) oraz ogólnych przepisów antydyskryminacyjnych.
Co więcej, unijny AI Act klasyfikuje systemy wykorzystywane w rekrutacji czy ocenie dostępu do świadczeń jako systemy wysokiego ryzyka. Nakłada to na ich dostawców i użytkowników konkretne obowiązki, m.in. w zakresie jakości danych i ludzkiego nadzoru, mające na celu właśnie minimalizację ryzyka dyskryminacji.
Aby ograniczyć ryzyko uprzedzeń w algorytmach, warto wdrożyć w szczególności:
- mechanizm „ludzkiej pętli” (human-in-the-loop), czyli ustalić w swojej organizacji, że AI nigdy nie podejmuje ostatecznej, w pełni zautomatyzowanej decyzji w sprawach wrażliwych (np. odrzucenie wniosku, wykluczenie z programu),
- testowanie wyników pod kątem sprawiedliwości. Przy czym nie wystarczy raz sprawdzić dane. Należy okresowo testować wyniki działania algorytmu i weryfikować, czy wskaźniki (np. odsetek pozytywnych decyzji, średnia ocena) są podobne dla różnych grup demograficznych.
Bo technologia nie jest neutralna, ale możemy (i powinniśmy) uczynić ją bardziej sprawiedliwą.
#5 Do kogo należą efekty pracy AI?
Sztuczna inteligencja generuje teksty, grafiki, analizy i inne utwory (tzw. outputy). Jednak pytanie o to, kto ma do nich prawa, jest złożone. Czy jest to organizacja, pracownik piszący prompt czy może dostawca narzędzia? Odpowiedź nie jest prosta, jest wielowarstwowa.
Warstwa 1: Prawo autorskie – decyduje wkład człowieka
Zgodnie z polską Ustawą o prawie autorskim i prawach pokrewnych, ochronę z niej wynikającą przyznaje się wyłącznie człowiekowi-twórcy (co więcej – jest to reguła międzynarodowa). Oznacza to, że jeśli:
- output został wygenerowany przez AI bez istotnego, kreatywnego wkładu człowieka (np. po wpisaniu bardzo prostego polecenia), to w świetle polskiego prawa nie jest on utworem;
- człowiek wnosi istotny wkład twórczy, np. poprzez świadome, precyzyjne i wieloetapowe formułowanie promptów, selekcję, edycję, kompilację i nadanie ostatecznej, indywidualnej formy, może zostać uznany za twórcę (lub współtwórcę) finalnego dzieła.
Warstwa 2: Ochrona wyniku pracy sztucznej inteligencji (outputu)
Jednak brak ochrony prawnoautorskiej nie zawsze oznacza pełną swobodę w kopiowaniu. Istnieją inne mechanizmy ochronne, przykładowo:
- Ochrona z tytułu dóbr osobistych. Mianowicie polski Kodeks cywilny (art. 23) wymienia „twórczość artystyczną, naukową czy wynalazczą” jako jedno z dóbr osobistych człowieka. Oznacza to, że nawet jeśli status prawnoautorski dzieła jest niepewny, to więź człowieka z efektem jego pracy intelektualnej podlega ochronie.
- Ochrona przed nieuczciwą konkurencją. W szczególności, jeśli organizacja zainwestowała wysiłek i środki w stworzenie i wypromowanie unikalnej grafiki, hasła czy całej kampanii (nawet z pomocą AI), a inny podmiot zacząłby ich używać w sposób, który wprowadza odbiorców w błąd co do pochodzenia, mogłoby to zostać uznane za czyn nieuczciwej konkurencji.
Warstwa 3: Umowa z dostawcą – regulamin narzędzia AI
Nawet jeśli polskie prawo pozwala uznać nasz wkład za twórczy, to co na ten temat mówi dostawca narzędzia AI? Warunki licencji (Terms of Service) to umowa, która wiąże organizację. Wiele platform, zwłaszcza w wersjach darmowych lub tańszych, przypisują sobie licencję (pozwolenie) na korzystanie z outputu w określony sposób. Tak czy inaczej, zawsze warto sprawdzić, co mówią regulaminy narzędzi AI, z których korzystamy w ramach organizacji – również z uwagi na to, o czym piszę w kolejnym akapicie.
Warstwa 4: Twoje dane (input) – ukryte ryzyko
Równie ważne jest to, co dzieje się z treściami, które wpisujesz w prompcie (tzw. input). Jeśli pracownicy NGO, tworząc raport, wprowadzają do publicznie dostępnego narzędzia AI dane wrażliwe dotyczące beneficjentów lub poufne strategie organizacji, muszą mieć świadomość, że regulamin dostawcy może zezwalać na analizę i wykorzystanie tych danych.
#6 Czy konieczna jest regularna ocena i audyt działania narzędzi AI w organizacjach społecznych?
Wdrożenie sztucznej inteligencji nie kończy się w dniu jej uruchomienia. Traktowanie AI jako narzędzia typu „ustaw i zapomnij” to prosta droga do utraty kontroli, a w kontekście działalności społecznej do poważnych ryzyk. Oprócz argumentów za nadzorem AI, które zostały już wspomniane we wcześniejszych punktach, warto też wspomnieć o zjawisku zwanym „dryfem modelu” (ang. model drift), gdzie system, który na początku działał doskonale, z czasem staje się coraz mniej precyzyjny lub zaczyna generować błędne wyniki.
Nieco podsumowując, można wskazać, że brak regularnej oceny naraża organizację na trzy główne rodzaje ryzyka:
- Ryzyko operacyjne, gdzie nieskuteczne lub błędne działanie AI może zaprzepaścić cele projektu i zaszkodzić beneficjentom.
- Ryzyko reputacyjne. Kto jak kto, ale NGO doskonale wiedzą, że błąd systemu nagłośniony publicznie może podważyć zaufanie do organizacji w oczach darczyńców i opinii publicznej.
- Ryzyko prawne, w ramach którego, chociażby niewykryte naruszenia (np. dyskryminacja, o której pisałam w pkt. 4) mogą prowadzić do roszczeń i kar finansowych.
Zamiast podsumowania: Kodeks AI dla NGO? Warto go mieć!
Na koniec proponuję konkretne działanie: opracowanie wewnętrznego kodeksu korzystania ze sztucznej inteligencji. Pamiętaj, nie musi to być obszerny, sformalizowany dokument napisany językiem prawniczym. Wręcz przeciwnie – powinien to być praktyczny przewodnik, wewnętrzny kompas dla całego zespołu, stworzony Waszymi słowami i dopasowany do Waszych realnych potrzeb i skali działalności.
Taki kodeks porządkuje wiedzę, minimalizuje ryzyka i zapewnia, że wszyscy w organizacji działają według tych samych, świadomych zasad. Poniżej przedstawiam niektóre obszary, które warto w nim zawrzeć:
- Odpowiedzialność i nadzór:
O czym jest ten rozdział? O tym, kto jest odpowiedzialny za narzędzia AI i co robimy, gdy coś pójdzie nie tak. - Ochrona danych i prywatność
O czym jest ten rozdział? O tym, jak chronimy informacje – zarówno organizacji, jak i naszych beneficjentów – w kontakcie z AI. - Transparentność i sprawiedliwość
O czym jest ten rozdział? O uczciwej komunikacji i dbaniu o to, by nasze algorytmy nie powielały szkodliwych stereotypów. - Własność intelektualna i zasady korzystania z narzędzi
O czym jest ten rozdział? O tym, co wolno nam tworzyć przy pomocy AI (szczególnie jeżeli NGO ma klientów, warto uwzględnić, czy chcą oni nabywać prawa autorskie do Waszych prac) i kto ma do tego prawa. - Kompetencje zespołu i audyt korzystania z AI organizacji
O czym jest ten rozdział? O tym, że technologia jest tylko tak dobra, jak ludzie, którzy jej używają.
Pamiętajcie, że wasz kodeks może być tworzony stopniowo, we współpracy z ekspertami i na ekspertkami (prawnikami, specjalistami od etyki), a nawet z pomocą… samej AI, która może wesprzeć was w redakcji i uporządkowaniu myśli. Najważniejsze, by był to żywy dokument, który realnie wspiera waszą misję w erze cyfrowej.
Inne materiały nt. AI w NGO, które Cię zainteresują!
- Sztuczna inteligencja a prawa autorskie – co warto wiedzieć?
- Jak dbać o prywatność i chronić dane w dobie generatywnej sztucznej inteligencji? Poradnik
- Jak mówić prosto o sztucznej inteligencji?
- Masz wiele umiejętności, których nie będzie mieć AI. Korzystaj z nich przede wszystkim!
- Jak przygotować się do pisania wniosku o grant z pomocą asystenta AI – Google NotebookLM
Jak organizacje wykorzystują technologie cyfrowe i sztuczną inteligencję? Przeczytaj raport z badania technologicznej kondycji trzeciego sektora
Raport „Nie tylko sztuczna inteligencja. Technologie cyfrowe w organizacjach pozarządowych” pokazuje, jak polskie organizacje pozarządowe wykorzystują technologie cyfrowe – od podstawowych narzędzi po rozwiązania oparte na AI. Powstał z myślą o liderach i liderkach NGO, którzy chcą lepiej rozumieć możliwości, wyzwania i potrzeby cyfrowej transformacji w sektorze społecznym. Jego celem jest inspirowanie, edukowanie i wspieranie organizacji w świadomym, efektywnym wdrażaniu technologii.