Ułatwienia dostępu

Search
Close this search box.
Search
Close this search box.

Jak bezpiecznie korzystać z generatywnej sztucznej inteligencji?

blog
Korzystasz z narzędzi opartych o generatywną sztuczną inteligencję, ale nie masz pewności czy robisz to bezpiecznie? Chcesz wiedzieć, czy nie naruszasz praw autorskich? Czy możesz chronić prawnie utwory, które tworzysz w Midjourney, DALL-E i podobnych? Nie chcesz ryzykować, że dane, które podasz tym narzędziom, wyciekną? Te pytania zadajemy sobie wszyscy ostatnio. Oto kilka porad i odpowiedzi, które pomogą Ci lepiej współpracować i decydować o tym, co udostępniać narzędziom Gen AI i jak korzystać z ich wytworów.
Spis treści

Korzystasz z narzędzi opartych o generatywną sztuczną inteligencję, ale nie masz pewności czy robisz to bezpiecznie? Chcesz wiedzieć, czy nie naruszasz praw autorskich? Czy możesz chronić prawnie utwory, które tworzysz w Midjourney, DALL-E i podobnych? Nie chcesz ryzykować, że dane, które podasz tym narzędziom, wyciekną? Te pytania zadajemy sobie wszyscy ostatnio. Oto kilka porad i odpowiedzi, które pomogą Ci lepiej współpracować i decydować o tym, co udostępniać narzędziom Gen AI i jak korzystać z ich wytworów.

Zanim przejdziemy do porad, podzielonych na obszary prawa autorskiego, ochrony prywatności i bezpieczeństwa danych, uporządkujmy, z czym mamy do czynienia, podczas pracowania z generatywną sztuczną inteligencją:

  • Dataset, czyli zbiory danych, na których modele były uczone (teksty, strony WWW, książki, obrazy, zdjęcia, ale również dane, które wprowadzamy samodzielnie do narzędzi), które w ogromnej mierze będą stanowić utwory, w rozumieniu prawa autorskiego.
  • LLM (Large Language Models), czyli model językowy, który wykonuje zadania przetwarzania języka naturalnego (dane wejściowe) na generowanie odpowiedzi (dane wyjściowe).
  • Aplikacje Generatywnego AI. Z tych modeli korzystamy najczęściej z pomocą narzędzi i aplikacji (jak ChatGPT czy Midjourney), które posiadają warunki ich wykorzystania (Terms Of Service), określające np. kwestie ochrony danych czy praw autorskich.
  • Prompt, czyli powszechnie przyjęte określenie na polecenia i instrukcje dla narzędzi generatywnego AI. Prompty mogą składać się również z załączanych obrazów, tekstów i danych.
  • Output (dane wyjściowe), czyli wyniki otrzymywane z narzędzi generatywnego AI, takie jak tekst, kod, wideo, grafiki.

W moich definicjach zwróciłem uwagę szczególną uwagę, kiedy w pracy z generatywną sztuczną inteligencją możemy korzystać z utworów prawno-autorskich oraz danych. Będzie nam to podpowiadać, kiedy i gdzie zwracać szczególną uwagę na kwestie bezpieczeństwa prawnego i danych. Warto pamiętać, że wyzwania będą pojawiać się po obu stronach:

  • działania narzędzi i danych treningowych,
  • naszych instrukcji i wyników, które otrzymujemy.

Dokładność generowania treści z AI i odpowiedzialność za błędy

Prawie każdy z dostawców rozwiązań generatywnej AI przestrzega przed możliwością uzyskiwania nieprawidłowych wyników. W warunkach wykorzystania ich serwisów lub w komunikatach, które otrzymujemy po zalogowaniu, często znajdziemy uwagę, że ostateczna ocena należy już do osoby korzystającej z narzędzia i to na niej spoczywa odpowiedzialność, za publikowanie nieprawdziwych informacji. Choć narzędzia te stale się doskonalą, nie należy się spodziewać, że firmy te wezmą odpowiedzialność za generowane treści w większym zakresie niż teraz.

Przykładowo, OpenAI, firma stojąca za najpopularniejszym modelem i chatbotem, czyli ChatGPT, tak opisuje to w warunkach korzystania z serwisu:

When you use our Services you understand and agree: Output may not always be accurate. You should not rely on Output from our Services as a sole source of truth or factual information, or as a substitute for professional advice. You must evaluate Output for accuracy and appropriateness for your use case, including using human review as appropriate, before using or sharing Output from the Services.

Warto zwrócić uwagę, błędy te mogą wynikać nie tylko z tzw. halucynacji, ale również z błędów w danych treningowych, braku dostępu do aktualnych danych, nieprecyzyjnych instrukcji. Świadomość naszej (człowieka) odpowiedzialności za wykorzystanie rozwiązań generatywnej AI będzie kluczowe również w kolejnych obszarach.

Prawo autorskie a generatywna sztuczna inteligencja

To zapewne najbardziej niepewny obszar codziennego korzystania z narzędzi generatywnego AI. Z jednej strony musimy wziąć pod uwagę zapisy regulaminów i warunków korzystania z aplikacji AI, z drugiej strony aktualne przepisy prawne (które niekoniecznie przewidywały takie technologie jak generatywna AI), a z trzeciej strony potencjalne zmiany, które mogą przynieść ze sobą np. pierwsze sprawy sądowe przeciw takim narzędziom oraz nowe regulacje prawne jak unijny AI Act.

Biuro praw autorskich USA (United States Copyright Office) stoi na stanowisku, że „sztuczna inteligencja nie posiada ludzkiego autorstwa potrzebnego do stwierdzenia jej praw autorskich”. W praktyce autorstwo i własność prac tworzonych przez AI przypisywana jest użytkownikom tworzącym zapytania. Do autorów promptów należy zadanie sprawdzenia, czy obraz narusza prawa autorskie podmiotów trzecich (np. zawiera logotypy, wizerunki osób, elementy chronionych utworów), zanim udostępni go publicznie, a zwłaszcza komercyjnie. Regulaminy większości narzędzi generatywnej AI (które pochodzą w ogromnej mierze z USA) napisane są w podobnych duchu.

W Unii Europejskiej AI Act wdrożony z początkiem 2024 roku nakłada na dostawców narzędzi AI obowiązki związane z podawaniem informacji o danych, wykorzystanych do nauki modeli oraz przestrzegania przepisów prawa autorskiego. Zespół z Uniwersytetu Stanforda ocenił w 2023 roku poziom zgodności z AI Act najpopularniejszych modeli generatywnej AI. Jak widać w kwestii praw autorskich, większość wypadła na zero. Możemy się spodziewać poprawy w tym zakresie w 2024 roku. Warto szukać aktualnych informacji czy narzędzie AI, z którego korzystamy (zwłaszcza w celach zawodowych), dostosowuje się również do przepisów obowiązujących w Unii Europejskiej.

Obrazy generowane z pomocą AI a regulaminy serwisów

W większości z nich użytkownik jest określany jako właściciel wszystkich wprowadzanych treści (promptów) oraz podmiot praw autorskich do otrzymanych wygenerowanych treści. W praktyce oznacza to również, że to użytkownik będzie odpowiedzialny za ewentualne naruszenia praw autorskich osób trzecich, jeśli takie znajdą się w odpowiedzi i zostaną opublikowane. Tutaj jednak sprawę komplikuje obietnica kilku dostawców modeli generatywnej AI (OpenAI, Google, Antrophic), dotycząca ochrony użytkowników komercyjnych na wypadek pozwania ich o naruszenie praw autorskich. Jak będzie działać w praktyce tzw. copyright shield, dowiemy się dopiero, kiedy sądy rozstrzygną pierwsze sprawy o naruszenia praw autorskich w wynikach generowanych przez AI. Warto jednak pamiętać, że ochrona ta gwarantowana jest tylko użytkownikom biznesowym (w OpenAI klientom Enteprise, ale nie Pro, którzy płacą za dostęp do GPT-4). Gwarancje te są również ograniczone wyłącznie do oryginalnych narzędzi OpenAI, a nie tych, które korzystają z ich modeli w innych aplikacjach.

Open AI DALL-E i GPT

Według OpenAI użytkownik jest właścicielem zarówno promptu, jak i wyniku pracy z narzędziem. Może decydować o publikacji wyników prac, ale nie może wprowadzać w błąd co do tego, czy dany obraz lub treść została stworzona przy pomocy AI. Nie można również wgrywać do przerabiania zdjęć ludzi bez ich zgody na wykorzystanie wizerunku, zdjęć osób publicznych oraz utworów, do których użycia nie mamy praw.

Microsoft Copilot

Kreator obrazów od Microsoft to tak naprawdę DALL-E 3 dostępny w ramach usług Copilot. Podobnie jak w przypadku DALL-E, prawa autorskie firma daje użytkownikom, ale równocześnie w ramach darmowych usług, licencja pozwala Microsoftowi na ich dowolne wykorzystanie. Microsoft również posiada szczegółową politykę korzystania z narzędzia, które zabrania m.in. tworzenia treści szerzących nienawiść lub o charakterze seksualnym.

Midjourney

To płatny generator dostępny (przynajmniej na razie) wyłącznie przez platformę Discord. Posiada różne plany subskrypcyjne, które różnią się ilością kredytów oraz dostępem do szybszego generowania obrazów z naszych instrukcji. Według warunków korzystania z  Midjourney obrazy generowane mogą zostać wykorzystane komercyjnie pod warunkiem przestrzegania wytycznych dla społeczności. Treści generowane mogą być wykorzystywane przez Midjourney m.in. do celów promocyjnych. Dopiero zakup planu Pro, Mega lub dodatkowej funkcji “Stealth” pozwala zastrzec sobie wyłączne prawo do prac.

Adobe Firefly

Adobe to pierwszy generator obrazów AI, który deklaruje, że został wytrenowany wyłącznie na utworach, do których firma posiadała licencję (drugim jest generator komercyjny od Getty Images). Ma to gwarantować większe bezpieczeństwo prawne od pozostałych narzędzi tego typu. Firefly dostępny jest przez stronę oraz w programach pakietu Adobe czyli Photoshop, Express, Illustrator, Stock. Mamy możliwość komercyjnego wykorzystania naszych obrazów, o ile nie używają funkcji oznaczonych jako beta (w fazie testów). Możemy również komercyjnie sięgnąć po nasze prompty, ale licencja określa również, że może robić to firma Adobe. Nie dotyczy to użytkowników subskrypcji Premium, którzy mogą się na to zdecydować lub nie. Podobnie jak w przypadku pozostałych narzędzi, Adobe Firefly również określa treści, których nie możemy wgrywać i tworzyć np. osób publicznych czy wizerunku osób bez ich zgody.

Prawie autoportret autora wykonany z pomocą Adobe Firefly

Stable Diffusion

To model generowania obrazów z 2022 r. opracowany przez start-up Stability AI. Stable Diffusion podobnie jak pozostałe modele uznaje, że całość praw do wygenerowanych obrazów pozostaje po stronie użytkownika. Serwis zabrania tworzenia treści niezgodnych z prawem lub krzywdzących (np. naruszających dobra osobiste, nawołujących do przemocy). Stable Diffusion to model otwarty, z którego można korzystać, również instalując (i modyfikując) go samodzielnie na własnym komputerze. Z racji na informacje, jakie firma ta udostępniała o swoim modelu na początku działania, jest pewne, że do nauki modelu wykorzystano treści chronione przez prawo autorskie i dostępne za tzw. pay-wallami np. płatne zdjęcia stockowe Getty Images.

Czy ochrona danych i sztuczna inteligencja mogą iść w parze?

Każdy, kto chce używać narzędzi AI komercyjnie lub w pracy organizacji, powinien dokładnie zbadać warunki korzystania z danego narzędzia. Narzędzia takie jak ChatGPT, Google Gemini czy Microsoft Copilot mają po kilka wersji: bezpłatnych, płatnych, dla przedsiębiorstw. Różnią się one często nie tylko możliwościami modelu, ale również gwarancjami bezpieczeństwa, poziomem ochrony danych oraz warunkami, na jakich firmy dostarczające narzędzie, mogą korzystać z treści, które wprowadzamy do danej aplikacji Gen AI (treści promptów, załączane dane itp.).

Podczas wyboru narzędzia dla zespołu, organizacji czy firmy, warto sprawdzić czy wiemy:

  • Kto ma dostęp do danych, które wprowadzimy do aplikacji gen AI? Tylko my czy również dostawca usługi? W jakim zakresie dostawca ma dostęp do danych?
  • Czy dane, które wprowadzamy, będą wykorzystane do dalszego treningu modelu AI? Czy mogę tego odmówić lub wyłączyć taką możliwość?
  • Jaką ochronę podczas przetwarzania danych zapewnia dana usługa?
  • Czy możliwe jest zawarcie umowy o przetwarzaniu danych osobowych?

Podobnie jak w przypadku innych dostawców usług chmurowych (np. poczty mailowej) dla Twojej organizacji czy firmy, odpowiedzi na te pytania są kluczowe z perspektywy ochrony bezpieczeństwa i zgodności z przepisami o ochronie danych osobowych (RODO). W przeciwieństwie do usług, takich jak poczta czy programów CRM (Customer Relationship Management), przetwarzanie danych przez usługi generatywnej AI, nie jest oczywiste dla wszystkich użytkowników.

W tym momencie (kwiecień 2024) tylko wybrane wersje narzędzi generatywnej AI od Google, OpenAI i Microsoft przeznaczone dla firm mogą być zgodne z europejskimi przepisami o ochronie danych osobowych. W praktyce oznacza to, że dopiero przy zakupie wersji ChatGPT Team lub Microsoft Copilot 365 lub usług AI Microsfot Azure, otrzymamy możliwość zawarcia umowy o przetwarzaniu danych oraz gwarancje, że poufne dane firmowe lub organizacji pozostaną poufne (nie będą wykorzystane do trenowania modelu). Pozostałe opcje, w tym płatne wersje jak ChatGPT Plus, nie dają takich gwarancji. Jeśli korzystając z nich, wprowadzimy do nich dane osobowe, zrobimy to z naruszeniem przepisów o ochronie danych. Jeśli wprowadzimy do nich informacje poufne organizacji, mogą one zostać wykorzystane do dalszej nauki modelu i zostać ujawnione podczas generowania odpowiedzi dla innych użytkowników.

Agencja konsultingowa Vischer, oceniła najpopularniejsze narzędzia, a dokładnie różne wersje ich regulaminów dla klientów indywidualnych i komercyjnych. Porównanie znajdziemy tutaj.

Zasady korzystania z generatywnej sztucznej inteligencji generatywnej w pracy. Od czego zacząć?

Z narzędzi generatywnej AI często korzystają indywidualnie pracownicy i pracowniczki. Organizacje rzadko posiadają jedno wybrane narzędzie i politykę korzystania z AI. Sama natura takich usług jak ChatGPT, z którym możemy prowadzić konwersację na dowolny temat, ułatwia wprowadzenie do niego wrażliwych informacji mimochodem. Dlatego poza sprawdzeniem warunków danej usługi powinniśmy również określić zasady korzystania z nich w pracy.

  • Anonimizuj dane osobowe jeśli wprowadzasz dokumenty z danymi do chatbotów.
  • Bądź transparentny/a kiedy używasz narzędzi generatywnej AI.
  • W jasny sposób informuj współpracowników o używaniu Gen AI w przypadku tworzenia treści przekazywanych innym osobom (maili, prezentacji itp).
  • W przypadku wykorzystania Gen AI na bazie treści innych osób np. podczas tworzenia automatycznych transkrypcji ze spotkań, pamiętaj o uzyskaniu zgody na nagrywanie).
  • Przed decyzją o wykorzystaniu narzędzi generatywnej AI na większą skalę w projekcie, zespole, firmie, przeprowadź research na temat tych narzędzi. Wyszukaj informacje o ewentualnych problemach i niedoskonałościach. Sprawdź, które z wersji (wiele narzędzi Gen AI oferuje możliwość wyboru modeli językowych, które wykorzystują) będą odpowiednie dla Twojego celu i jak dalece możesz to narzędzie dostosować (np. Przeprowadzić fine-tunning).
  • Zastanów się nad zakupem wersji biznesowej narzędzia Gen AI, jeśli planujesz korzystać z niego do takich zadań jak analiza danych.
  • Jeśli planujesz wykorzystać narzędzia Gen AI do tworzenia publicznie dostępnych treści (np. reklam), upewnij się, że korzystasz z narzędzi, które były trenowane na danych pozyskanych zgodnie z prawem lub zapewniają Ci gwarancje nienaruszania osób trzecich. Wiele narzędzi od takich firm jak OpenAI, Microsoft czy Claude nazywa te rozwiązania tarczą (copyright shield), ale udziela gwarancji tylko wybranym wersjom biznesowym lub płatnym.
  • Sprawdź, jakie istniejące polityki i procedury warto zaktualizować w organizacji, aby lepiej chronić prywatność użytkowników i pracowników. Być może warto dodać w nich informacje dotyczące korzystania (lub zakazu korzystania) z Gen AI w określonych sytuacjach.

 

Newsletter
Dołącz do grona ponad 10 000 zaangażowanych subskrybentów i dwa razy w miesiącu otrzymuj nieodpłatnie nową dawkę wiedzy, inspiracji oraz technologicznych recenzji i porad od ekspertów i ekspertek programu Sektor 3.0.
Festiwal Sektor 3.0 już za
dni   
:
: