W świecie, w którym sztuczna inteligencja przejmuje coraz więcej rutynowych zadań, pytanie: „czy wciąż potrzebujemy ludzi?” staje się palące. Marcin Woźniak, prezes Fundacji Optimum Pareto, wierzy, że nasza rola nie maleje – zmienia się: stajemy się strażnikami racji, kreatorami przestrzeni dialogu, a AI może być naszym sprzymierzeńcem, jeśli nauczymy się łączyć ludzką inteligencję ze zbiorową mądrością.
Praca, która zmienia się szybciej niż my
Sztuczna inteligencja nie jest już abstrakcją z filmów science fiction. Nie jest też tylko „narzędziem do ułatwiania pracy” – stała się jej częścią, rytmem i strukturą. „Technologia weszła bardzo mocno w naszą codzienną pracę” – mówi Marcin Woźniak, prezes Fundacji Optimum Pareto, która od lat bada, jak łączyć wiedzę ludzi z możliwościami AI.
Z jego perspektywy to, co widzimy dzisiaj, nie jest nagłym przewrotem, lecz efektem dekady cichej rewolucji:
Jeszcze kilka lat temu AI kojarzyła się głównie z Matrixem czy Lemem. Dziś nie trzeba długo czekać, żeby ta technologia realnie wpływała na to, jak pracujemy i podejmujemy decyzje.
Przyspieszenie jest ogromne – a to rodzi pytania, na które nie mamy jeszcze porządnych odpowiedzi. Jak zachować sprawczość, skoro coraz więcej rzeczy wykonują za nas modele? Jak uczyć się, kiedy narzędzia myślą szybciej niż my? Jak współpracować, jeśli łatwiej wpisać pytanie w interfejs niż przejść dwa biurka dalej?
Słuchaj także: Czy AI odbiera nam sprawczość? Zachowaj kontrolę nad technologią
Kiedy wolimy algorytm niż człowieka
Jednym z najważniejszych wątków podcastu jest zmiana relacji w pracy. Nie tylko tych między ludźmi a technologią, ale też między ludźmi nawzajem.
Ludzie coraz częściej pytają AI zamiast drugiego człowieka. Boją się oceny, ośmieszenia, odrzucenia. Maszyna nie ocenia, nie powie, że pytanie jest głupie.
Łatwo tu o pułapkę: szybka odpowiedź, zero ryzyka, zero wstydu. A jednak z perspektywy organizacji oznacza to coś więcej – erozję współpracy. Jeśli każde pytanie kierujemy do algorytmu, a nie do zespołu, tracimy coś fundamentalnego: zdolność wspólnego rozumienia.
Marcin nazywa to wprost: „Zamykamy się w bańce, w której model utwierdza nas w naszej wizji świata. To może prowadzić nawet do zachowań psychotycznych — i nie dotyczy to tylko osób w kryzysie”. Zamiast więc narzędzia wspierającego możemy dostać lustro, które odbija tylko nas.
Czytaj także: Czy AI nas ogłupia? MIT bada, co dzieje się z mózgiem użytkownika ChatGPT
AI to mistrz schlebiania
Większość użytkowników AI tego nie zauważa: modele językowe mają tendencję do schlebiania. Delikatnego, ciepłego, niegroźnego – ale stale obecnego.
Model odpowiada tak, żebyśmy byli zadowoleni. To efekt tego, jak był trenowany. To nie jest zaplanowana manipulacja – to po prostu coś, na co łapią się nasze kognitywne skróty.
To właśnie Sycophancy – miękka, nieuświadomiona forma uzależnienia od potwierdzania. A potwierdzanie jest czymś, na co reaguje każdy z nas. Dlatego, jak podkreśla Woźniak, na AI trzeba patrzeć nie jak na mądrzejszą wersję człowieka, ale jak na system przewidywania kolejnego wyrazu. Sprytny, szybki, imponujący, ale wciąż bardzo podatny na nasze własne błędy.
Jak uchronić pracę przed „rozpuszczeniem” w AI?
„Warto ustalić, jakie zadania powinny być wykonywane indywidualnie, a które w przestrzeni wspólnej. Musimy widzieć, jak inni pracują z modelem, jakie popełniają błędy – i móc to wspólnie korygować”.
To echo tego, o czym mówicie w podkaście o cyberbezpieczeństwie: zaufanie to wartość, ale zaufanie bez kontroli jest ryzykowne. Marcin dodaje: „Modele są dynamiczne. Zmieniają się, są aktualizowane. Dokumentowanie wyników i sposobów ich użycia to forma audytu, która chroni ludzi i organizacje”.
Zaskakująco wiele z jego obserwacji dotyczy nie technologii, ale samego procesu uczenia się krytycznego myślenia. To ono ma być przeciwwagą dla ułatwień, które AI daje aż zbyt chętnie.
Czytaj także: Masz wiele umiejętności, których nie będzie mieć AI. Korzystaj z nich przede wszystkim!
Mapowanie argumentów – czyli jak myśleć wolno, kiedy wszystko przyspiesza?
W tym miejscu pojawia się najważniejszy element jego pracy: komputerowo wspomagane mapowanie argumentacji. Narzędzie, które pozwala „zobaczyć” myśl i wspólnie ją korygować.
Mapowanie to taki graf, w którym każda myśl ma swoje miejsce. Widać, co ją wspiera, co ją podważa, jakie są przesłanki. To wyciąga dyskusję z narracji i układa ją w logiczną przestrzeń.
W świecie, w którym tekst dominuje nad namysłem, a szybkość nad jakością, to podejście działa jak hamulec. W dobrym sensie. Najciekawsze jest jednak coś innego: mapowanie depolaryzuje. Na mapie nie widać, kto jest autorem argumentu. Widać tylko argument.
„Zamiast skupiać się na osobach, skupiamy się na racjach. To zmienia dynamikę całej rozmowy” – podkreśla Woźniak.
Czytaj także: Nie jesteśmy skazani na AI – dr Alek Tarkowski o etyce sztucznej inteligencji
Przyszłość pracy? Wspólne myślenie
Marcin nie wierzy w wizję pracy, w której AI zastępuje człowieka. Przyszłość widzi w czymś innym – w umiejętności współmyślenia.
Nie powinniśmy delegować samodzielnego myślenia do modeli. To jest jak mięsień. Niewykorzystywane – wiotczeje.
To zdanie brzmi jak ostrzeżenie, ale też jak zaproszenie. Do praktyki. Do uważności. Do lepszego projektowania procesów w organizacjach. W świecie, w którym wszystko ma przyspieszać, być bardziej efektywne, bardziej „smart” — przyszłość być może leży w czymś bardziej ludzkim: umiejętności zwolnienia. „Trzeba zostawić w świecie miejsce na ludzkość. Na relacje. Na współdecydowanie. Na budowanie demokracji. Nie oddawajmy tego modelom” – podkreśla prezes Fundacji Optimum Pareto.
Przeczytaj także:
- Jak korzystać z AI, żeby nie stracić głowy (ani mózgu)? 8 zasad
- Droga do zrozumienia maszyn i mechaniki ich wpływu
- AI w organizacji pozarządowej – 6 pytań, które warto sobie zadać
- Jak dbać o prywatność i chronić dane w dobie GenAI? Poradnik
- Jak bezpiecznie korzystać z generatywnej sztucznej inteligencji?
Marcin Woźniak: specjalista w zakresie komputerowego mapowania argumentacji oraz rozwoju narzędzi łączących sztuczną inteligencję z inteligencją zbiorową. Prezes Fundacji Optimum Pareto z siedzibą w Krakowie, gdzie od ponad dekady rozwija technologie wspierające racjonalny dialog publiczny. Twórca mechaniki oraz metodologii rejestracji danych w projekcie Swarmcheck – platformie generującej mapy argumentacji na podstawie rozmów pomiędzy użytkownikami i AI, wykorzystywanej m.in. w konsultacjach społecznych i współtworzeniu polityk publicznych. Kierował również projektami badawczymi z zakresu AI i przeciwdziałania dezinformacji („ArgCheck” w programie Infostrateg, „TITAN AI” w programie UE Horyzont), koncentrując się na etycznym wdrażaniu rozwiązań AI dla dobra społecznego. Na TECH-ON! – nowym na mapie konferencji i festiwali technologicznych wydarzeniu, w którym nauka łączy siły z biznesem, kultura przenika się z technologią, wygłosił wystąpienie „Technologia mapowania argumentów wspomagana sztuczną inteligencją, jako podstawa zaawansowanego rozumowania”.