Ułatwienia dostępu

Jak dbać o prywatność i chronić dane w dobie generatywnej sztucznej inteligencji? Poradnik

Jak dbać o prywatność i chronić dane w dobie generatywnej sztucznej inteligencji?
Od lat wiemy, że za możliwości promocji i komunikacji z pomocą mediów społecznościowych płacimy utratą kontroli nad prywatnymi danymi, profilowaniem i polaryzacją społeczną. Co poświęcamy w zamian za zwiększenie efektywności tworzenia i analizy treści z generatywną AI? Czy narzędzia te można zabezpieczyć tak, aby nie stały się nowym obszarem ryzyka dla organizacji społecznych?
Spis treści

Od lat wiemy, że za możliwości promocji i komunikacji z pomocą mediów społecznościowych płacimy utratą kontroli nad prywatnymi danymi, profilowaniem i polaryzacją społeczną. Co poświęcamy w zamian za zwiększenie efektywności tworzenia i analizy treści z generatywną AI? Czy narzędzia te można zabezpieczyć tak, aby nie stały się nowym obszarem ryzyka dla organizacji społecznych?

Zmieniające się zagrożenia

Badania Microsoft z początku 2025 roku nad odciążeniem poznawczym podczas pracy z narzędziami generatywnej AI pokazały, że dla większości zadań pracownicy i pracowniczki (różnych dziedzin i zawodów) poświęcali mniej energii na krytyczne myślenie. Pewnie nie zaskoczyło to Ciebie za bardzo. Warto jednak zastanowić się, co to oznacza nie tylko dla jakości pracy, ale również jej bezpieczeństwa. Jakie konsekwencje może mieć powolne przechodzenie w stan autopilota?

ZOBACZ TAKŻE: Czy Internet, który znamy, się kończy?

Zagrożenia, które wykorzystują naszą uśpioną czujność, to nie jedyne ryzyko pracy z powszechną i wygodną w użyciu AI. Nadal najwięcej potencjalnego ryzyka zależy od tego, jakie dane zostały wykorzystane do treningu AI oraz jak zabezpieczone są narzędzia, z których korzystamy, aby mieć dostęp do danych i generować treści.

Oto kilka najważniejszych zagrożeń:

  • Oszukiwanie systemu AI: Charakterystyczną cechą rozwiązań gen AI jest podatność na manipulację ich działania za pomocą instrukcji (tzw. prompt injection). Atakujący projektują prompty tak, aby oszukać system lub konkretne narzędzie, aby wykonały złośliwe działanie lub aby uzyskać dostęp do modelu i danych. Bazowanie na popularnych modelach AI, np. podczas tworzenia własnych wersji chatbotów, może być narażone na te same ułomności.
  • Luki w zabezpieczeniach danych: Narzędzia AI mogą być podatne na ataki, prowadzące do wycieku wrażliwych informacji. Ataki w rodzaju „model extraction” mają na celu wydobycie informacji o działaniu modeli oraz informacji użytych do ich treningu. Skuteczny atak tego rodzaju, w ramach którego wyciekłyby dane osobowe, dla firm czy organizacji oznacza ryzyko techniczne i prawne (związane z ochroną danych i przepisami RODO). 
  • Udostępnianie poufnych danych modelom AI: łatwość wykonywania wielu zadań z konwersacyjną AI sprawia, że szybciej przekazujemy jej więcej informacji. Zarówno indywidualnie, jak i w organizacjach potrzeba uważności na to, jakie dane udostępniamy modelom AI. Przykładem jest incydent z 2023 roku, gdy pracownicy Samsunga przypadkowo wprowadzali poufne dane do ChatGPT
  • Nieautoryzowany dostęp: jak wszystkie narzędzia chmurowe, informacje, które w nich zapisujemy (historia konwersacji, załączniki), jak i to, co zapisują o nas, mogą wyciec w przypadku utraty kontroli nad kontem. 

Poza ryzykami, które wynikają bezpośrednio z działania narzędzi, warto pamiętać również o tych, które wynikają z używania wyników pracy generatywnej AI:

  • Błędne lub stronnicze wyniki: Modele AI, trenowane na niekompletnych lub uprzedzonych (ang. biased) danych, mogą generować nieprawidłowe lub dyskryminujące rezultaty. Dla firm i organizacji to ryzyko użycia lub rozpowszechnienia tych informacji, o ile nie zostaną zweryfikowane i poprawione przez człowieka. 
  • Naruszenie praw autorskich: Choć treść generowana przez AI, bez znaczących modyfikacji przez człowieka, nie jest utworem i nie zyskuje automatycznie ochrony prawno-autorskiej, to równocześnie może naruszać prawa własności intelektualnej. Jeśli wytwór AI (która była trenowana na prawdziwych utworach) przypomina za bardzo chronione utwory, publikacja wytworu może naruszyć prawa autorów lub posiadaczy praw majątkowych. Dlatego publikacje wytworów wymagają kontroli człowieka przed udostępnieniem. W przypadku przypadkowego plagiatu (gdy wygenerowany przez AI tekst lub grafika będą zbyt podobne do istniejącego dzieła) może dojść do naruszenia praw autorskich twórcy oryginału. Odpowiedzialność w takim przypadku leży po stronie osoby, która publikuje wytwór.
  • Wykorzystanie AI do inżynierii społecznej: Narzędzia generatywnej AI można użyć do tworzenia przekonujących wiadomości e-mail phishingowych lub ataków socjotechnicznych. Najnowszy model GPT 4o potrafi generować obrazy z tekstem tak precyzyjne, jak fałszywy dowód osobisty

Konieczność aktualizacji modelu pracy

Prywatność była pierwszym, głównym zmartwieniem przy wyborze narzędzi i modeli AI przez ostatnie dwa lata. Wczesne wersje tych systemów zapisywały Twoje czaty i wykorzystywały je do ulepszania swoich modeli. Brakowało możliwości odmowy oraz alternatyw. To się diametralnie zmieniło, o czym piszę poniżej w sekcji o ustawieniach narzędzi. Poza lepszą obsługą narzędzi musimy również umieć bezpiecznie pracować z danymi.

Zarówno ty, jak i twój zespół potrzebujecie jasnych zasad dot. bezpieczeństwa korzystania z narzędzi Gen AI, oraz podnoszenia swoich kompetencji pracy z nimi. Łatwość pracy z konwersacyjną AI oraz ogromna oferta tych narzędzi utrudnia kontrolę nad tym, czy wszyscy korzystają z nich równie bezpiecznie. Dlatego poza kwestią stworzenia polityki pracy z generatywną AI w zespole, warto zainwestować czas również w praktyczne podniesienie kompetencji (np. anonimizacji danych, niezależnie od wykorzystywanych narzędzi) oraz budowanie wzajemnego zaufania (aby informować się nawzajem o tym, jak planujemy użyć narzędzi generatywnej AI w pracy indywidualnej lub zespołowej).

Minimalizacja danych i narzędzi

Korzystanie z kilku narzędzi równocześnie, z których każde jest odrobinę lepsze w danym zadaniu, ma swoje korzyści, ale znacząco podnosi ryzyka związane z bezpieczeństwem i prywatnością, o których pisałem wcześniej. W zespole lub organizacji warto ograniczyć zarówno liczbę wykorzystywanych narzędzi, aby ułatwić ich kontrolę, jak i danych, które chcemy przetwarzać z ich pomocą. Minimalizacja to skupienie się na zadaniach, które dzięki AI faktycznie podnoszą Waszą produktywność, oraz ograniczenie ryzyk związanych z korzystaniem z narzędzi, które takich korzyści nie przynoszą.

CZYTAJ TAKŻE: Jak bezpiecznie korzystać z generatywnej sztucznej inteligencji?

Anonimizacja danych

Anonimizacja danych to proces usuwania danych osobowych i innych wrażliwych informacji z zestawu danych, tak aby nie można było powiązać ich z konkretnymi osobami. To kluczowa umiejętność w czasach pracy z narzędziami generatywnej AI, które świetnie radzą sobie z językiem naturalnym oraz dużą ilością danych. 

Dzięki anonimizacji można ograniczyć ryzyko wycieku danych i spełnić wymagania przepisów o ochronie prywatności.  W zależności od rodzaju i wrażliwości danych można zastosować różne metody anonimizacji. Oto kilka popularnych technik:

  • Pseudonimizacja – zastąpienie danych wrażliwych sztucznymi identyfikatorami (pseudonimami), co utrudnia identyfikację osób. Struktura danych zostaje zachowana, co pozwala nadal je analizować. Taki proces można wykonać w programach Excel (Użyj funkcji RANDBETWEEN lub RAND do generowania losowych identyfikatorów) i Word (Użyj funkcji „Znajdź i zamień” (Ctrl+H), aby masowo podmienić imiona/nazwiska na inne).
  • Maskowanie danych – ukrycie wrażliwych informacji przy użyciu losowych znaków, symboli lub zastępczych wartości. Format danych się nie zmienia, ale stają się one nieczytelne. Ukrycie części informacji, np. numeru PESEL również można osiągnąć za pomocą funkcji w Excelu (Użyj funkcji TEXT i REPT lub LEFT/RIGHT.
  • Uogólnianie – zmniejszenie szczegółowości danych, np. zastąpienie dokładnego wieku przedziałem wiekowym.
  • Zamiana danych (data swapping) – przetasowanie wartości między rekordami w zbiorze danych, co utrudnia przypisanie danych do konkretnych osób.
  • Dodawanie szumu – wprowadzenie losowych zmian do danych, co obniża ich dokładność i utrudnia identyfikację pojedynczych wpisów.

Wspólne audytowanie wyników

W małej organizacji społecznej dzielenie się dobrymi praktykami może bardzo usprawnić pracę całego zespołu oraz uchronić nas przed popełnianiem błędów. Narzędzia generatywnej AI dają niezwykle zróżnicowane wyniki i zmieniają się (np. w wyniku zmian modeli). Co gorsze, mogą działać w sposób niewidoczny dla współpracowników czy odbiorców (np. programy do transkrypcji spotkań, które nie informują o obecności podczas spotkania online). Warto regularnie poświęcać czas na to, aby wspólnie audytować to, jak korzystamy z takich narzędzi, aby:

  • wzmacniać transparentność w zespole dot. korzystania z narzędzi AI,
  • pomagać sobie w unikaniu ryzykownych zastosowań i wzmacniać bezpieczne praktyki,
  • usprawnić wzajemnie swoją pracę np. wymieniając się lepszymi instrukcjami (promptami).

Takie podejście łączy ze sobą zarządzanie ryzykiem z doskonaleniem naszych kompetencji pracy z AI.

CZYTAJ TAKŻE: Jak ocenić etyczne i ekologiczne koszty AI dla organizacji pozarządowej?

Ustawienia ochrony prywatności w narzędziach, z których korzystasz online

Wersje chmurowe (ChatGPT, Gemini, Perplexity) oferują jakąś formę trybu prywatnego, który ma nie używać wprowadzanych danych do trenowania modelu AI. Wersje korporacyjne tych produktów zaczęły oferować dodatkowe gwarancje bezpieczeństwa i wymogów regulacyjnych. Coraz łatwiejsze staje się również uruchamianie modeli generatywnej AI lokalnie na własnym komputerze lub w przypadku firm i organizacji, na dedykowanych serwerach chmurowych jak Microsoft Azure czy Google Vertex.

Podstawowe zabezpieczenia w ChatGPT

ChatGPT zapewnia opcję konwersacji tymczasowych, które nie są zapisywane w historii i nie są wykorzystywane do treningu modeli. Aby ją włączyć, musisz przejść do lewego górnego rogu w ChatGPT i wybrać „Tymczasowy czat”.

Tymczasowy czat w ChatGPT – opcja umożliwiająca prowadzenie rozmowy bez zapisywania historii konwersacji i bez wykorzystywania danych do trenowania modelu AI.
Tymczasowy czat w ChatGPT – opcja umożliwiająca prowadzenie rozmowy bez zapisywania historii konwersacji i bez wykorzystywania danych do trenowania modelu AI.

Możesz też zupełnie wyłączyć opcję trenowania jego modelu za pomocą Twoich danych, przy czym ta zmiana ustawień nadal będzie zapisywała historię i dawała tymczasowy dostęp firmie OpenAI do pamięci. Aby to zrobić, przejdź do ikony swojego profilu na stronie ChatGPT i wybierz Ustawienia > Kontrola danych, a następnie wyłącz „Ulepsz model dla wszystkich”. Podczas gdy ta opcja jest wyłączona, Twoje nowe konwersacje nie będą używane do trenowania modeli ChatGPT.

Ustawienia w ChatGPT pozwalające wyłączyć opcję „Ulepsz model dla wszystkich”, co uniemożliwia używanie danych użytkownika do treningu modelu AI.
Ustawienia w ChatGPT pozwalające wyłączyć opcję „Ulepsz model dla wszystkich”, co uniemożliwia używanie danych użytkownika do treningu modelu AI.

Jeśli potrzebujemy gwarancji bezpieczeństwa przetwarzania danych oraz możliwości domyślnego wyłączenia modeli AI na naszych danych, to takie opcje mamy dopiero z kontem Enterprise (29 USD/miesiąc za osobę). W tej wersji mamy możliwość również lepszego zabezpieczenia konta i sterowania dostępem dla pracowników i pracowniczek.

W ustawieniach wszystkich rodzajów kont warto również zwrócić uwagę na dodatkowe ustawienia bezpieczeństwa, takie jak uwierzytelnianie dwuskładnikowe.

Podstawowe zabezpieczenia w Perplexity

Dokładnie te same możliwości znajdziemy w Perplexity. Aby uruchomić tryb tymczasowy (incognito) kliknij Ustawienia w lewym dolnym rogu.

Tryb incognito w Perplexity – tymczasowy czat, który nie zapisuje historii rozmów ani nie używa danych do trenowania modeli AI.
Tryb incognito w Perplexity – tymczasowy czat, który nie zapisuje historii rozmów ani nie używa danych do trenowania modeli AI.

Aby wyłączyć naukę modeli na Twoich danych, przejdź do Ustawienia > Preferencje i wyłącz opcję Retencja danych. Perplexity również oferuje wersję Enterprise Pro, w której firmy i organizacje otrzymują bardziej granularne ustawienia modeli oraz zabezpieczeń kont.

Wyłączanie opcji retencji danych AI w Perplexity, co zapobiega wykorzystaniu danych użytkownika do treningu modeli.
Wyłączanie opcji retencji danych AI w Perplexity, co zapobiega wykorzystaniu danych użytkownika do treningu modeli.

CZYTAJ TAKŻE: Czym jest Perplexity AI? Wyszukiwarka i narzędzie z AI w jednym

Podstawowe zabezpieczenia w Google Gemini

W przeciwieństwie do OpenAI ChatGPT, Google oferuje ograniczone opcje zarządzania danymi osobowymi za pomocą Gemini. Większość konfiguracji związanych z prywatnością jest powiązana z Twoim nadrzędnym kontem Google, które z kolei jest powiązane ze wszystkimi usługami Google, takimi jak Chrome, YouTube, itp. Klikając swój profil w prawym górnym rogu, możesz wyłączyć i wyczyścić historię, czyli Aktywność aplikacji Gemini. 

Wyłączanie aktywności w aplikacjach z Gemini (Google) – opcja zarządzania wykorzystaniem danych do trenowania modelu AI.
Wyłączanie aktywności w aplikacjach z Gemini (Google) – opcja zarządzania wykorzystaniem danych do trenowania modelu AI.

Czy dostawcy narzędzi generatywnej AI szanują prywatność użytkowników? Czy można im ufać?

Jak w przypadku każdego komercyjnego narzędzia, które działa w chmurze i na którego warunki wykorzystania musimy się zgodzić, kluczowe jest zrozumienie tych zapisów i ocena ryzyka. Warto odróżnić od siebie różne poziomy zabezpieczeń wynikające z tego, jak działa narzędzie, co określają warunki korzystania (tzn. Terms of service czy User agreements) oraz ogólne regulacje i przysługujące nam prawa.

  • Ustawienia, czyli opcje dostępne dla użytkownika/użytkowniczki narzędzia i możliwość zarządzania prywatnością i bezpieczeństwa (jak opisane powyżej).
  • Warunki korzystania z serwisów i narzędzi AI, które określają np. zakres przetwarzania naszych danych.
  • Regulacje, które chronią naszą prywatność, np. w zakresie udzielanych zgód na przetwarzanie naszych danych osobowych.

Weźmy na przykład informacje o usłudze Google Gemini, w których znajdziemy ograniczone możliwości wyłączania naszych danych treningowych, konieczność udzielenia zgody na przetwarzanie danych na podłączanych do niego treściach z innych narzędzi, w celu realizacji usług (ale nie do trenowania modelu) oraz deklaracje o zgodności z regulacjami RODO, w taki sam sposób jak cała usługa Google Workspace (czyli dysku i dokumentów Google), które dotyczą m.in. obowiązku firmy poinformowania nas o wycieku danych osobowych itp.

Zestawienie opcji prywatności i ochrony danych w usłudze Google Gemini – informacje o tym, jakie dane są dostępne dla modelu, jak są używane oraz jak są chronione.
Zestawienie opcji prywatności i ochrony danych w usłudze Google Gemini – informacje o tym, jakie dane są dostępne dla modelu, jak są używane oraz jak są chronione.

Wybierając usługę AI dla siebie lub swojej organizacji warto przyjrzeć się dokładnie wszystkim trzem poziomom. To jednak nie wszystko. Tak, jak wspominałem przy okazji różnic pomiędzy kontami w ChatGPT i Perplexity, gwarancje bezpieczeństwa i danych czasem otrzymujemy dopiero dla kont firmowych, a niekoniecznie każdego konta płatnego.

Kontrola nad sztuczną inteligencją z modelem działającym lokalnie – na komputerze

Lokalne, czyli działające na naszym sprzęcie (komputerze lub serwerze), duże modele językowe mogą znacząco podnieść poziom prywatności i bezpieczeństwa danych. Dzięki obsłudze tych modeli w obrębie własnego środowiska lub chmury prywatnej poufne dane pozostają pod kontrolą firmy, organizacji lub Ciebie (indywidualnej osoby). Nie wszystkie modele można uruchomić lokalnie i na własnych serwerach.

W przypadku własnego komputera uruchomienie lokalnego modelu wymaga prostej konfiguracji (np. z pomocą programów jan.ai, jak na ilustracji poniżej, lub LMstudio, Olama), oraz pobrania modelu, który zasoby naszego komputera mogą uruchomić. Podstawowym ograniczeniem będzie tutaj pamięć RAM. Przykładowo 32 GB pamięci RAM pozwalają na uruchomienie wielu wersji takich modeli jak Google Gamma, Deepseek R1, Llama3, Mistral. 

Wybór lokalnych modeli AI uruchamianych na komputerze użytkownika, co zwiększa bezpieczeństwo danych i ochronę prywatności.
Wybór lokalnych modeli AI uruchamianych na komputerze użytkownika, co zwiększa bezpieczeństwo danych i ochronę prywatności.

W przypadku posiadania dostępu do usług takich jak Microsoft Azure czy Google Vertex możemy nie tylko uruchomić większość modeli, również tych pochodzących od OpenAI, czyli GPT, ale również relatywnie łatwo budować z ich pomocą własne narzędzia. Nadal nie będziemy potrzebować specjalistycznej wiedzy, aby skonfigurować takie rozwiązania i zbudować np. własnego chatbota.

Czy sztuczna inteligencja, prywatność i bezpieczeństwo danych mogą iść w parze? Podsumowanie

Bezpieczne korzystanie z generatywnej AI wymaga świadomych działań, jasnych zasad oraz stałego podnoszenia kompetencji w zakresie prywatności i ochrony danych. Nie możemy jeszcze polegać wyłącznie na regulacjach prawnych oraz dobrej woli dostawców, często bardzo nowych narzędzi. Warto regularnie audytować wykorzystywane aplikacje i wyniki pracy z nimi, minimalizować ilość przetwarzanych informacji oraz poznać się lepiej z technikami anonimizacji. Poziom bezpieczeństwa zależy przede wszystkim od naszej uważności.

 

Newsletter
Dołącz do grona ponad 10 000 zaangażowanych subskrybentów i dwa razy w miesiącu otrzymuj nieodpłatnie nową dawkę wiedzy, inspiracji oraz technologicznych recenzji i porad od ekspertów i ekspertek programu Sektor 3.0.
Fundusz Sektor 3.0 - Zapisy Trwają
dni   
:
: