Czy to będzie rozmowa dwóch awatarów AI? Nic podobnego, ale ten ważny wątek rozwijamy w kolejnym odcinku naszego podcastu. Kiedy i gdzie zaczyna się dezinformacja? Czy rozwój AI wywróci świat fake newsów do góry nogami? Jak możemy sprawdzać informacje? Mamy dla was garść podpowiedzi, propozycja działania i nazwy konkretnych narzędzi — wszystko w tym jednym odcinku.
Słuchaj nas na Spotify | Google Podcasts | Apple Podcasts | YouTube
Fake newsy, deepfejki, AI — z czym możemy się mierzyć?
Zagrożenia związane z fake newsami obejmują różnorodne obszary, takie jak sfera zdrowia, prywatność, edukacja i komunikacja społeczna. Wśród związanych z nimi wyzwań, ze względu na rozwijające się technologie, pojawiają się nowe. Pierwsze pytanie w naszym podcaście tylko pozornie jest zadane z przymrużeniem oka. Czy zawsze jesteś pewien/pewna, że rozmawiasz z prawdziwą osobą? Fake news jako post na Facebooku może przejść do lamusa, a możemy wkrótce mierzyć się z zupełnie innymi wyzwaniami.
W naszym poprzednim odcinku padła nazwa narzędzia, które potrafi wygenerować awatar (także z konkretnym głosem na podstawie — dość rozbudowanej — próbki). Do tego należy dołączyć łatwość w tłumaczeniu głosu (nawet z intonacją) na inne języki. Zobaczcie zresztą sami, jakie są jego możliwości. To oczywiście szansa na oszczędzenie czasu, wzrost działań w innych krajach, ale także potencjalne problemy, które mogą z tego wyniknąć.
Kolejnym wątkiem, który może być ważny w zaśmiecaniu infosfery są halucynacje ChataGPT. Nadrzędnym celem i zadaniem tego narzędzia jest udzielanie odpowiedzi. Co natomiast, gdy nie zna odpowiedzi? Może ją „zmyślić”, konfabulować, szyć razem różne fakty. Czasem sztandarowy model OpenAI wymyśla także autorów i ich publikacje. Potem takie tytuły lądują w bibliografiach i tym samym mogą zostać wprowadzone do ogólnointernetowego obiegu.
Jakie są zagrożenia już dziś?
To, na co powinniśmy mieć baczenie, dzieląc się informacjami, w sieci to oversharing. Czasem udostępniamy zbyt wiele, a dostęp do tych konkretnych treści jest zbyt łatwy. Dane osobowe, szczegóły życia prywatnego czy rodzinnego — to wszystko może potencjalnie zostać wykorzystane przeciwko nam. Na gruncie rodzinnym zwracamy także uwagę na sharenting — czyli nadmierne dzielenie się życiem swoich dzieci. Udostępnianie zdjęć, filmów, opowieści może przełożyć się także na życie innych członków naszej rodziny. Raport „Sharenting po polsku…” wskazuje, że 40% rodziców dokumentuje dorastanie swoich dzieci w mediach społecznościowych.
Bardziej globalne spojrzenie na fake newsy i dezinformację wskazuje, że mogą mieć one poważne konsekwencje społeczne. Przykładem może być niska akceptacja społeczna szczepień, co może wpływać na zdrowie publiczne. Prostsze, ale fałszywe informacje mogą być bardziej skuteczne w rozprzestrzenianiu się niż skomplikowane, naukowe wyjaśnienia. To wyzwanie, z którym trzeba mierzyć się na poziomie budowania komunikatów. Jak przekazywać skomplikowane zagadnienia medyczne w sposób zrozumiały dla społeczeństwa? Poniżej znajdziecie kilka nazwisk popularyzatorów nauki, którzy sprawnie działają w tych obszarach.
Warto wspomnieć także o wyzwaniu, które powstało przez dostępność do oprogramowania generującego obrazy. Narzędzi nie brakuje, a to, co możemy stworzyć za ich pośrednictwem, wygląda coraz bardziej wiarygodnie. Na szczęście w ślad za rozwojem generatorów (Dall-e, Midjourney, Adobe Firefly) idą także „identyfikatory”. Potrafią one zidentyfikować obrazy wygenerowane przez AI. Spójrzcie na dwa obrazy poniżej. Jeden z nich powstał dzięki sztucznej inteligencji, jeden to zdjęcie. Jak myślicie, który z nich jest „prawdziwy”? Odpowiedź znajdziesz na końcu artykułu.
Co zrobić, gdy zidentyfikujemy fake news?
Jak postępować w przypadku, gdy zidentyfikujemy informację nieprawdziwą lub półprawdę? Przykładów postępowania jest kilka. My dorzucamy do tego zadanie, które możecie wykonać, jeśli chcecie skutecznie wyłapywać fake newsy.
- W przypadku próby oszustwa (SMS, e-mail) można zgłosić takie zdarzenie do CERT.
- Jeśli dysponujecie źródłem — wklejcie je w komentarz pod postem.
- Odwiedźcie stronę Demagoga, tam duży przekrój różnych tematów.
- Najważniejsze: nie podawać dalej, jeśli nie jesteśmy pewni.
- Równie ważne: nie działać pod wpływem emocji.
Propozycja działania: w swojej przestrzeni internetowej spróbujcie znaleźć coś, co wzbudza Wasze wątpliwości. Następnie zweryfikujcie tę informację przy pomocy dostępnych źródeł.
Aplikacje, Książki, Postaci
Aplikacje, platformy
Aplikacje na mobile do wyszukiwania obrazem:
- Na iOS – Reversee
- Google Lens
Wtyczki do przeglądarek (zamiast google grafika):
Narzędzia do weryfikowania zdjęć i wideo:
Podcast i platforma:
Książki
- Eliot Higgins — „Bellingcat: ujawniamy prawdę w czasach postprawdy”
- Peter Pomerantsev — „To nie jest propaganda”
- Hans Rosling — „Factfullnes — Dlaczego świat jest lepszy niż myślimy, czyli jak stereotypy zastąpić realną wiedzą”
- Max Fisher — „W trybach chaosu — jak media społecznościowe przeprogramowały nasze umysły i nasz świat”
Popularyzatorzy nauki
Gość odcinka — Marcel Kiełtyka
Członek zarządu, Specjalista ds. komunikacji i PR Stowarzyszenia Demagog. W Demagogu od 2016 roku, gdzie zdobywał doświadczenie jako analityk, koordynator i specjalista ds. komunikacji i PR. Członek Zarządu Stowarzyszenia Demagog oraz mentor Akademii Fact-checkingu. Prowadził warsztaty w szkołach ponadgimnazjalnych oraz na konferencjach poświęconych mediom i cyberbezpieczeństwu. Praktykę w dziedzinie marketingu i komunikacji w sieci zdobywał w agencji marketingowej oraz w dziale contentu i komunikacji lidera branży bukmacherskiej w Polsce. Studiował na Wydziale Filologicznym Uniwersytetu Śląskiego oraz na Wydziale Informatyki i Komunikacji Uniwersytetu Ekonomicznego w Katowicach. Koordynuje działania zespołu, planuje i czuwa nad efektywnym przebiegiem komunikacji. Specjalista w branży digital communication i regularnego dostarczania wartościowych treści.
ODPOWIEDŹ: Zdjęcie A zostało wygenerowane przy pomocy Adobe Firefly.