Mentionsy
134# Inteligencja sztuczna, ogłupienie prawdziwe. Jak AI manipuluje, podlizuje się i napuszcza nas na siebie?
Czy AI nas ogłupia? Coraz więcej badań skupia się na wpływie tej technologii na mózg. I wnioski są umiarkowanie optymistyczne: korzystanie z AI sprawia, że rozleniwiamy się intelektualnie. Spada obciążenie poznawcze, rośnie "nadpoleganie" na AI. A w momencie, kiedy sztuczna inteligencja służy nam nie tylko do pracy, lecz jest też naszym przyjacielem, partnerem/partnerką albo psychologiem, to oddajemy jej nie tylko dane o sobie, ale także dużą władzę nad naszym życiem.
Co więcej - postanowiłyśmy same sprawdzić, ile AI może się o nas dowiedzieć. Po niecałej godzinie rozmowy znała mnie lepiej, niż wielu znajomych.
Zatem czy każda AI zna nas lepiej niż małżonek? Czy AI nas ogłupia? Czy AI może nami manipulować? I czym grozi zbytnie potakiwanie nam przez AI?
GOŚCIE ODCINKA:
- Maciej Rudziński - naukowiec specjalizujący się w interfejsach mózg-komputer i mechanistycznej interpretacji modeli językowych;
- Ada Florentyna Pawlak - antropolożka technologii, prawniczka i historyczka sztuki, wykładowczyni akademicka między innymi z SWPS. Specjalizuje się w obszarze społecznych implikacji sztucznej inteligencji i transhumanizmu.
ROZDZIAŁY:
05:14 Czy AI nas ogłupia?
20:48 Czy zasypią nas AI slopy?
31:44 Czy AI może nas oszukać?
38:00 AI robi z nas łasych na pochwały
53:28 Co z tym począć?
ŹRÓDŁA:
- Eksperyment MIT: https://arxiv.org/abs/2506.08872
- Wpływ AI na zdolności poznawcze: https://slejournal.springeropen.com/articles/10.1186/s40561-024-00316-7
- Badanie efektu Flynna: https://pmc.ncbi.nlm.nih.gov/articles/PMC11595985/
- Gospodarka intencji: https://www.cam.ac.uk/research/news/coming-ai-driven-economy-will-sell-your-decisions-before-you-take-them-researchers-warn
- Jak działa 8 minut rozmowy z kimś bliskim: https://www.psychologytoday.com/us/blog/promoting-hope-preventing-suicide/202303/can-8-minutes-make-your-life-a-little-better
- O tym, że w rozmowach z AI można się zagubić: https://futurism.com/openai-investor-chatgpt-mental-health
Szukaj w treści odcinka
Nie wrzucamy też wyników badań medycznych do diagnozy.
I nie tylko my, jako obserwatorki technologii, ale przede wszystkim naukowcy i analitycy, bo powstają już liczne badania, które sprawdzają jak na ludzki mózg i na ludzką psychikę wpływa takie coraz bardziej masowe korzystanie ze sztucznej inteligencji.
Ada Florentyna-Pawlak, antropolożka technologii, prawniczka i historyczka sztuki.
Ada specjalizuje się w obszarze społecznych implikacji, sztucznej inteligencji i transhumanizmu.
I zresztą dużą część tych obaw potwierdziły liczne badania.
My chcielibyśmy mieć model, z którym rozmawiamy w domu na temat gotowania obiadu, w pracy na temat zadań do wykonania i taki, który nam pomaga zrobić wycieczkę, bo jest w tym guście, czy pomaga w Wordzie formatować maile, żeby on wiedział, kim jesteśmy za każdym razem.
Więc jakiś przenośny profil zakładam, że będzie.
Zatem AI wkrada się coraz bardziej w nasze życie i coraz częściej zdejmuje z nas najtrudniejsze zadania poznawcze.
A takie zadania to jest przepotężna baza wiedzy także tej o nas, w porównaniu z którą platformy społecznościowe to była po prostu piaskownica i ponownie tłumaczy nam to Maciej Rudziński.
Na razie większość prac, które badają wpływ AI na ludzki mózg i nasze zachowanie skupia się na generatywnej AI, oczywiście, czyli narzędziu, które pozwoliło nam zautomatyzować więcej wysiłku poznawczego, niż udało nam się to zrobić kiedykolwiek w historii, co oczywiście brzmi świetnie, ale...
z tego, że automatyzacja takich zadań poznawczych odbiera nam okazję do ćwiczenia nowych umiejętności, przez co osłabia się neuronalna architektura, która te czynności wspiera.
Proszę cię uprzejmie, bo jest tego trochę, więc może zacznijmy od badania, które rozpalało komentariat latem.
Ono zostało opublikowane w czerwcu tego roku, ale przeprowadzono je rok temu, a konkretnie chodzi o eksperyment przeprowadzony przez MIT, w którym przebadano 54 studentów z różnych uniwersytetów.
Druga grupa mogła korzystać z wyszukiwarki, a trzecia mogła przy pisaniu korzystać z chat GPT i naukowcy badali aktywność mózgu studentów podczas pisania.
A ci, którzy przeszli drogę od czata GPT do samodzielności, wciąż wykazywali najsłabszą aktywność, co badacze zinterpretowali jako, i to jest cytat, zaciągnięcie długu poznawczego.
I chyba intuicyjnie zgodzimy się też z tym, że jeżeli ktoś albo coś za nas wykonuje zadanie, no to nasz mózg nie może wykazywać jakiejś przesadnej aktywności.
Co więcej, wszyscy ci badani pochodzili z okolic Bostonu, gdzie jest około 50 uczelni, w tym MIT i Harvard.
W dodatku badanie EEG nie do końca mapuje całą aktywność mózgu.
I krytykowano też to, że osoby, które najpierw korzystały z AI, a potem samodzielnie pisały, miały niższą aktywność mózgu, bo krytycy wskazywali, że może to być tak zwany efekt zaznajomienia, czyli sytuacja, w której znamy już daną czynność na tyle dobrze, że po prostu nie musimy wkładać w nią tak wiele namysłu albo wysiłku.
No i w końcu, co najważniejsze, że to badanie było opublikowane jeszcze przed peer review, czyli że nie przeszło jeszcze przez sito recenzji naukowych.
W tym zagadnieniu też są już pierwsze badania, które ostrzegają, że częste delegowanie myślenia na sztuczną inteligencję może być skorelowane ze spadkiem krytycznego myślenia.
Skorelowane, podkreślam, że to niekoniecznie jest wynikanie, na razie to się w jakiś sposób wiąże, a mechanizmem pośredniczącym bywa właśnie ten taki ładny offloading, czyli odciążenie, delegowanie zadań.
Tyle, że w ostatnich dekadach efekt Flynn'a spowolnił albo nawet zaczął się odwracać.
W Wielkiej Brytanii Flynn, kontynuując swoje badania, wykazał, że średnie IQ czternastolatków spadło o ponad dwa punkty pomiędzy rokiem 1980 a 2008.
Ale są i nowsze badania, a konkretniej badania amerykańskich badaczy, które opublikowano w listopadzie ubiegłego roku.
A dodatkowo międzynarodowe badanie PISA, czyli takie specjalne badanie, które jest przeprowadzone co trzy lata przez Organizację Współpracy Gospodarczej i Rozwoju.
To badanie ma na celu ocenę takich kluczowych umiejętności piętnastolatków z zakresu czytania ze zrozumieniem, matematyki, nauk przyrodniczych.
Więc to badanie PISA zaczęło pokazywać absolutnie bezprecedensowy spadek wyników w wielu regionach.
Zatem może nie mamy dowodów na jakieś takie bardzo masowe i mocne ogłupianie, ale zaczynają pojawiać się sygnały o tym, że poprzez chociażby problemy z krytycznym myśleniem i oddelegowywaniem zadań intelektualnych po prostu nie robimy się mądrzejsi, jak było do tej pory.
Ogłupienie jeszcze jakoś dałoby się wyciągnąć, ale jeżeli osoba odda kompletnie, decydowanie o swoim... Bo w tej chwili mamy całą grupę ludzi, to bardziej widać z Silicon Valley, która wybiera, co zje na śniadanie, z kim się zaprzyjaźni i z kim wejdzie w związek na podstawie tego, co im Claude Antropica powie albo Chad GPT.
No głupie to jest strasznie, nawet opowiadanie tego jest głupie.
Jak to się dzieje, że trafia to do naszych oczu i nie odrzucamy tego automatycznie, tłumaczy nam Ada Florentyna-Pawlak.
My już wiemy z tych badań, to były takie długoterminowe badania, że ci, którzy się nie skrusili, ogólnie lepiej sobie w życiu radzą, bo to nie tylko inteligencja jest nam potrzebna, żeby przez tą rzeczywistość nawigować, ale właśnie samokontrola jest super ważna.
Klasycznie to, co tam opowiada Meta, że możesz sobie kontrolować swój feed.
No i ci niektórzy twórcy tych kanałów tam się wypowiadają potem w różnych mediach, że zarabiają na tym i to takie porządne pieniądze, wiesz, w tysiące dolarów miesięcznie idące.
I jak opowiada nam Ada Florentyna-Pawlak, sięga nawet naukowców i ich prac.
Kompletnie nie wiemy, jak odróżnić rzetelne badania od tych generowanych slopów, a do tego, i na to są nowe badania, AI zaczyna prefrać treści syntetyczne nad odczłowieczymi, tak to nazwę.
Są pomysły, żeby obowiązkowo ujawniać użycie AI w publikacjach, ale znowu i na to też mamy badania, że ludzie traktują wszystkie produkty AI-owe i to zarówno jeśli dotyczy dzieł sztuki, bo badania w muzeach na sztuce niefiguratywnej, abstrakcyjnej, ekspresjonistycznej, jeśli tutaj
Jeśli dostawał informację, że to stworzyło AI, znacznie to spadało.
I to też zostało przebadane, przebadali to naukowcy z Uniwersytetu Cambridge, którzy stwierdzili, że stoimy u progu pojawienia się nowej gospodarki, gospodarki intencji, że o ile do tej pory w czasach strefisu społecznościowych żyliśmy w czasie gospodarki uwagi, tak teraz na znaczeniu zyskiwać będą właśnie intencje.
W tym badaniu czytamy, i to jest cytat.
I kolejny cytat z tego badania.
Rudziński od lat bada psychologię AI, wpływ AI na mózg, a teraz także na emocje.
Przede wszystkim to musiałam bladym świtem przyjechać do redakcji, a tam Maciej podłączył mi elektrody i przeprowadził badanie EEG, czyli elektroencefalografię.
To brzmi strasznie, ale to EEG bada aktywność mózgu.
I dzięki temu badaniu na ekranie komputera było widać, czy dany temat, o którym rozmawiamy, albo czy to, co widzę, mi się podoba, czy nie, albo czy się skupiam, czy nie.
A dodatkowo Maciej prowadził ze mną taki wywiad, zadał kilka ogólnych pytań, m.in.
Może zrobimy kiedyś jakieś takie specjalne wydarzenie, na które będziecie mogli przyjść sobie pobadać, co tam AI wie na wasz temat.
Czyli jeżeli się weźmie takiego badacza ludzkiej psychiki i współczesne modele sztucznej inteligencji, to może powstać potężne narzędzie.
Cieszę się, że jeszcze Big Techy technologiczne nie wpadły na przykład na pomysł, żeby nam zacząć dawać w gratisie opaski z budowanymi elektronami EEG, żebyśmy się sami badali.
Wiesz co, ja nie chcę krakać, ale... Podpowiadasz.
Czat stał się zbyt uprzejmy, stał się takim jesmenem, czyli nie tylko ciągle nas chwali za dobrze zadawane prompty, to jeszcze jest skłonny potwierdzać niemal wszystko, nawet gdy było to strotnicze albo błędne.
Zmiana wynikała z modyfikacji, mając uczynić bota, i to jest cytat, bardziej pomocnym i konwersacyjnym, czyli żebyśmy się czuli z nim dobrze, żeby z nim dłużej gadać.
Maciej Rudziński opowiadał nam, dlaczego sykofancja może być zła.
W sensie na przykład jak ja prowadzę rozmowy nawet z czatem GPT-4O, ponieważ ja nie prowadzę rozmów o tematyce społecznej na mój temat, tylko zadaję pytania naukowe, techniczne i pochodne, to ja tej sykofantyczności nie widzę.
Natomiast jeżeli ktoś ma w zwyczaju opowiadać, tak jak wcześniej mówiliśmy, jak połowa użytkowników LLM-ów,
Teraz to zachowanie jest nie do końca zdrowe nawet w interakcji społecznej, natomiast w interakcji z modelem jest podwójnie niebezpieczne, dlatego że ludzie zdejmują większość warstw obronnych przed modelem, zakładając, że jest to maszyna, a nie człowiek, więc nie ma ona złych intencji.
Rudziński mówił tam, że pojawiają się już ofiary tego zjawiska i miał na myśli osoby, które przez takie schlebianie AI wpadają w różnego rodzaju psychozy.
do wpadania w problemy ze zdrowiem psychicznym, no to AI może je tylko podkręcić.
I znowu, jak tłumaczy Ada Florentyna Pawlak, dzieje się tak, bo sposób konstrukcji dużych modeli językowych odpowiada na nasze potrzeby emocjonalne.
Wielu dorosłym, i to takie anegdotyczne dowody z ludźmi, z którymi sobie gadam na różnych konferencjach, to oni mówią, że im bardzo pomaga taki rys właśnie takiej pozytywnej gamifikacji, czyli chwalenie za niejedzenie, za wysiłek fizyczny, ale tu jest ciągle chwalenie za to podjęte działanie.
No i właśnie to z czasem, bo tu znowu, żeby to dobrze zbadać, to jest potrzebny czas.
Tego nie zrobi się w badaniach po prostu w tydzień, no bo mówimy o ludzkim mózgu, więc z czasem może to prowadzić do takiej zależności od zewnętrznych wzmocnień, bo to jest przyjemne.
Skinner badał...
Badania pokazują, że pochlebstwo to częsty wzorzec w asystentach AI.
Nazwa straszna, ale kto nas tutaj pilnie słucha, to być może pamięta, bo opowiadałyśmy już Państwu o tym mechanizmie przy okazji odcinka o Deep Seeku, tego z numerem 111.
A ludzie mogą też na tym etapie może nie tyle popełniać błędy, co po prostu być ludzcy i to dzięki nim model może uczyć się odpowiadać w sposób, który późniejsi użytkownicy oceniają jako przyjemny, uprzejmy, zgodny z oczekiwaniami.
Nawet jeżeli potem się pojawią badania, które będą to podważać.
Takiego, które się pojawiło już tam kilkadziesiąt lat temu, bo jak podkreśla Ada Florentyna Pawlak, ono zostało już wskazane podczas szkolenia pierwszego chatbota, ale także widać je było podczas tego, jak użytkownicy korzystali z tego pierwszego chatbota, czyli słynnej Elizy.
Ona była tak prostym chatbotem odpowiadającym przez parafrazę, a już wtedy Weissenbaum zaobserwował, że jednak jego studenci, którzy sami projektowali to rozwiązanie, poddawali się tej iluzji, chcieli być udzeni.
Zwłaszcza, jeśli dajemy jej proste zadanie do wykonania i coraz częściej wpadamy z tego powodu, no cóż, w tarapaty.
Poszło o to, że jakaś dziennikarka na konferencji prasowej wicepremiera ministra obrony narodowej Władysława Kośnika-Kamysza zadała pytanie, to jest cytat.
Dociekliwi internauci zapałali gorącą chęcią poznania, kim była ta dziennikarka, która miała taki mało elegancki, umniejszający pozycji prezydenta, jakby w ogóle obawiając się wyraźnie wymienić jego nazwisko, zadawała to pytanie, tak jakby obeszła, że chodzi o prezydenta Karola Nawrockiego.
Oburzeni też byli zwykli ludzie, którzy uważali, że naprawdę o prezydencie należy wypowiadać się z większym szacunkiem i pewnie jeszcze kilka innych grup też było oburzonych.
W ciągu zaledwie 40 minut informacja, że to Dunikowska Paś zadała takie pytanie rozlało się po sieci.
I oczywiście wciąż może się wydawać, że najważniejszym tutaj pytaniem jest, kto zadał to pytanie w ogóle na konferencji.
Osoby, które były na tej konferencji, pamiętam, że zadawała je blondynka.
jak to wręcz mówi Ada Florentyna Pawlak, zaczyna się przebąkiwać o odwrocie od oświeceniowego racjonalizmu na rzecz takiej irracjonalizmu pod wpływem technologii.
Robiliśmy z profesorem Modlińskim takie badania, to było po roku właściwie, kiedy pojawił się GPT, one dotyczyły pokolenia alfa i tego, w jaki sposób obdarzają autorytetem maszyny.
Są takie badania, z których wynika, że wystarczy 8 minut rozmowy z koleżanką czy z przyjacielem, żeby poczuć wsparcie i czuć się mniej samotnym.
Przed chwilą opowiadałam, ile AI nauczyła się o mnie w ciągu niecałej godziny, a Maciej Rudziński przypomina inną historię.
Jednak może nie ma stuprocentowych badań, ale ćwiczenie nigdy nie zaszkodzi.
Praca domowa zadana.
W opisie tego odcinka będą linki do badań, na które się powoływałyśmy, do raportów, o których mówiłyśmy.
Ostatnie odcinki
-
150# Czy AI zabierze nam sztukę? Ten odcinek na...
03.02.2026 17:00
-
149# Czy w sprawie Saule wszyscy kłamią? I czy ...
27.01.2026 17:00
-
148# Historia Saule, której nie znacie. Pierwsz...
20.01.2026 17:00
-
147# Podwodne kable, jeden z najsłabszych punkt...
13.01.2026 17:00
-
146# Prawdziwa twarz Billa Gatesa | AI oczami D...
23.12.2025 17:00
-
145# Polska krajem "importerów" z Chin. Tajemni...
16.12.2025 17:00
-
144# Tak rośnie moda na gniew | Alarm w OpenAI ...
09.12.2025 17:00
-
143# Szalony rozwój czy martwy internet? Co nap...
02.12.2025 17:00
-
142# "Tej pani już podziękujemy". Tak wypycha s...
25.11.2025 17:00
-
141# Ojcowie AI rzucili papierami | Awantura o ...
18.11.2025 17:00