Ułatwienia dostępu

Search
Close this search box.
Search
Close this search box.

Czy AI odbiera nam sprawczość? Zachowaj kontrolę nad technologią

Czy AI odbiera nam sprawczość? Zachowaj kontrolę nad technologią
Jak sztuczna inteligencja ma się do organizacji społecznej? Czy NGO w ogóle powinny zwracać uwagę na AI? W kolejnym  odcinku podcastu Sektor 3.0 mówimy o tym, jak można na nowo zdefiniować podejście do sztucznej inteligencji w sektorze społecznym. Dlaczego warto odchodzić od monopolu technologicznych gigantów? O tym mówi Jacek Nagłowski, reżyser, badacz nowych mediów i inicjator AI Social Lab – projektu, który ma misję oddania potencjału AI w ręce tych, którzy będą mogli za jego pomocą rozwiązać problemy społeczne wokół nas.
Spis treści

Jak sztuczna inteligencja ma się do organizacji społecznej? Czy NGO w ogóle powinny zwracać uwagę na AI? W kolejnym  odcinku podcastu Sektor 3.0 mówimy o tym, jak można na nowo zdefiniować podejście do sztucznej inteligencji w sektorze społecznym. Dlaczego warto odchodzić od monopolu technologicznych gigantów? O tym mówi Jacek Nagłowski, reżyser, badacz nowych mediów i inicjator AI Social Lab – projektu, który ma misję oddania potencjału AI w ręce tych, którzy będą mogli za jego pomocą rozwiązać problemy społeczne wokół nas.

Czym jest AI Social Lab?

AI Social Lab powstało jako odpowiedź na to, jak obecnie wygląda krajobraz rozwiązań związanych ze sztuczną inteligencją. Systemy tworzone i zarządzane przez wielkie korporacje stawiają zysk ponad wszystko inne. Ta inicjatywa staje z kolei w opozycji do takiego podejścia. Nie zwiększenie zysków, a budowanie dostępnych narzędzi. Kluczowymi wartościami tego projektu są przejrzystość i autonomia użytkowników oraz współpraca w kierunku tworzenia nowych rozwiązań. Innymi słowy, to oddolna inicjatywa demokratyzacji sztucznej inteligencji, która chce wykorzystanie tej technologii przełożyć na poprawę naszego życia, codzienności lub zniwelowanie problemów społecznych.

To inicjatywa, której nie sposób odmówić nowatorskiego podejścia. Sam Lab działa jako niezależna organizacja non-profit, zawiera jednak różnorodne partnerstwa. Działa współpracując z NGO, instytucjami publicznymi, środowiskami akademickimi i technologicznymi. To wszystko by rozwijać konkretne systemy AI odpowiadające na realne potrzeby społeczne. Pożądanym efektem będzie także know-how, czyli po prostu zasób wiedzy.

Zagrożenia AI, kontrola dostępu

Wdrażanie systemów AI w organizacjach non-profit wiąże się z szeregiem wyzwań. Przede wszystkim związane są one z brakiem kontroli nad danymi i zależnością od dostawców technologii. Jacek Nagłowski zwraca także uwagę na automatyzację procesów bez zachowania sprawczości użytkowników.

Najważniejsze jest posiadanie i rozumienie technologii, a nie jedynie dostęp do niej. To pozwoli organizacjom zachować autonomię i kontrolę nad własnymi rozwiązaniami.

Powszechne rozwiązania wiążą się z dostępem i analizą naszych danych przez globalne korporacje. Dla organizacji pozarządowych, które często przetwarzają wrażliwe informacje (np. dotyczące osób w kryzysie, uchodźców czy beneficjentów pomocy społecznej), brak pełnej kontroli nad danymi może prowadzić do poważnych konsekwencji, takich jak naruszenie prywatności lub nieautoryzowane wykorzystanie informacji. Korzystanie z własnych, otwartych modeli AI, takich jak Bielik czy rozwiązań rozwijanych przez AI Social Lab, pozwala na ograniczenie tego ryzyka poprzez lokalne przetwarzanie danych i uniknięcie uzależnienia od komercyjnych dostawców​.

Korporacyjne modele AI działają na zasadzie dostępu – użytkownik nie posiada ich, lecz jedynie korzysta z nich na określonych warunkach. A co stanie się, jeśli dostawca zmieni warunki użytkowania, ograniczy dostęp do narzędzia lub zdecyduje się je wycofać? Wówczas organizacja traci swoje kluczowe wsparcie technologiczne czy narzędzie, które odpowiada za jakąś część procesów.

Masz wiele umiejętności, których nie będzie mieć AI. Korzystaj z nich przede wszystkim!

Kto tu decyduje? Organizacja czy AI?

Kolejnym wyzwaniem jest nieświadome oddawanie decyzyjności AI. Sztuczna inteligencja może być używana do analizy danych i wspierania podejmowania decyzji, ale nie powinna zastępować ludzi w kluczowych wyborach etycznych i organizacyjnych. Problem ten jest szczególnie istotny w kontekście selekcji beneficjentów pomocy społecznej, oceny wniosków grantowych czy decyzji administracyjnych.

Modele AI mogą reprodukować uprzedzenia (tzw. bias), które są obecne w danych, na których były trenowane, co może prowadzić do niesprawiedliwych decyzji i nieświadomej dyskryminacji. Kluczowe jest więc, aby organizacje rozumiały, jak działają te systemy, miały wgląd w ich mechanizmy i mogły samodzielnie je dostosowywać​ lub wykluczyć z pewnych procesów.

Mimo że modele są cały czas udoskonalane, nadal istnieje także ryzyko w postaci potencjalnej dezinformacji i halucynacji. Modele generatywne (czyli tworzące treści) nie zawsze dostarczają nam poprawnych informacji – mogą „halucynować”, czyli generować przekonujące, ale fałszywe treści. W przypadku organizacji pozarządowych, które chcą bazować na rzetelnej wiedzy i faktach, może to prowadzić do rozpowszechniania błędnych informacji. Co za tym idzie podważona może zostać wiarygodność i zaufanie społeczne.

Dlatego AI nie powinna być traktowana jako źródło absolutnej prawdy, lecz jako narzędzie wspierające analizę danych, które zawsze wymaga weryfikacji i krytycznego spojrzenia ze strony człowieka​. Ludzki czynnik jest niezbędny przy pracy związanej z wykorzystaniem sztucznej inteligencji.

Sztuczna inteligencja w polskim wydaniu: SpeakLeash i polski model językowy Bielik

W kontekście otwartych modeli AI warto wspomnieć o projekcie SpeakLeash (Spichlerz), który doprowadził do powstania polskiego modelu językowego Bielik. To inicjatywa społeczna, angażująca setki osób w rozwój systemów AI dostępnych dla wszystkich. Model Bielik, choć mniejszy od globalnych rozwiązań, oferuje organizacjom pozarządowym możliwość wykorzystania sztucznej inteligencji w sposób zgodny z lokalnym kontekstem i wartościami społecznymi​.

Projekty AI Social Lab

AI Social Lab rozwija obecnie kilka kluczowych projektów:

  • Neurobridge – platforma tłumaczeniowa zaprojektowana w celu wypełnienia luki komunikacyjnej między osobami neurotypowymi i neurodywergentnymi.
  • Ko-pilot scenariuszowy AI – system wspierający scenarzystów w procesie twórczym, oferujący pomoc w generowaniu dialogów i analizie narracji.
  • ArchIntel – platforma wykorzystująca sztuczną inteligencję do analizy i odkrywania ukrytego potencjału w zbiorach archiwów, muzeów i innych instytucji kultury.

Każdy z tych projektów powstaje w ścisłej współpracy z organizacjami społecznymi i ekspertami, co gwarantuje ich realne zastosowanie i dostosowanie do faktycznych potrzeb użytkowników.

Jacek Nagłowski: producent i reżyser oraz badacz i twórca w dziedzinie nowych mediów. Wyprodukował blisko trzydzieści filmów dokumentalnych i fabularnych, w większości koprodukcji międzynarodowych oraz czternaście doświadczeń VR prezentowanych na międzynarodowych festiwalach. Od 2020 roku zajmuje się zagadnieniami związanymi ze sztuczną inteligencją. Założyciel AI Social Lab – organizacji non-profit wdrażającej systemy sztucznej inteligencji do rozwiązywania problemów społecznych.

Przeczytaj także:

 

Newsletter
Dołącz do grona ponad 10 000 zaangażowanych subskrybentów i dwa razy w miesiącu otrzymuj nieodpłatnie nową dawkę wiedzy, inspiracji oraz technologicznych recenzji i porad od ekspertów i ekspertek programu Sektor 3.0.
Festiwal Sektor 3.0 już za
dni   
:
: