Mentionsy

Strefa Wiedzy Uniwersytetu SWPS
17.12.2025 13:27

Algorytmy i bańki informacyjne – kto (i jak) decyduje o tym, co widzisz?

„Niewidzialna ręka algorytmu” porządkuje informacyjny chaos i pozwala zaoszczędzić czas. Jednak ta wygoda ma swoją cenę. Niekontrolowana personalizacja treści stopniowo ogranicza pole widzenia odbiorcy. Co gorsza, jest to proces subtelny. Dlatego pierwszy krok to – wiedzieć. 🎯 Jak działają algorytmy rekomendacji? 🎯 Dlaczego zamknięcie w „bańce” może być niezauważalne dla użytkownika? 🎯 Jak możemy wpływać na algorytmy w swoich mediach? 👁️ Chcesz wiedzieć więcej? Odwiedź Strefę Wiedzy Uniwersytetu SWPS: https://strefawiedzy.swps.pl/ #algorytmy #dezinformacja #fakenews #krytycznemyślenie #edukacjamedialna W tym miejscu znajdziesz wszystkie materiały, które powstały w ramach Strefy Psyche, a od listopada 2025 — treści z jeszcze szerszego spektrum tematów. Wejdź do Strefy Wiedzy Uniwersytetu SWPS!

Szukaj w treści odcinka

Znaleziono 26 wyników dla "Platformy"

I w związku z tym platformy ClockX do tego, żeby mówiły, z czego wynika to, co nam się wyświetla.

Ogólnie już wcześniej wiedzieliśmy, że chyba wszystkie platformy starają się poprzez algorytm odsuwać nas to, co może być dla nas interesujące, zgodne z naszymi wcześniejszymi

Platformy udzielają nam wszystkich potrzebnych informacji, my mamy do nich dostęp, a w ogóle wszystko to dobrze rozumiemy.

Właśnie platformy tak o tym opowiadają, że one są mega transparentne, o wszystkim opowiedziały, pokazują bardzo dużo użytkownikom.

No i badacze chcieliby wiedzieć, w jaki sposób platformy to robią i czy przy okazji nie robią czegoś w drugą stronę, czyli czy nie podkręcają swojego algorytmu w ten sposób, żeby właśnie wręcz przeciwnie budować podział między ludźmi, napięcia, agresję, żeby to właśnie było tym, co ich przyciąga.

Czy te kary wpłyną na platformy?

Troszkę się obawiam, że platformy mają to wpisane w swój budżet.

Czy platformy mają tu jakąś swoją specyfikę albo czy w jakiś fundamentalny sposób pod tym względem się różnią?

Chociażby przez to, że mamy różnorodne grupy znajomych, którzy udostępniają różne treści, a niektóre platformy, jak zaznaczyłem, szczególnie promują to, co udostępniają nasi znajomi.

Na pewno platformy umożliwiające dzielenie się także takimi poglądami, teoriami, co do których uznajemy, że są szkodliwe, też powinny ponosić jakąś odpowiedzialność.

To jest na pewno obszar jakiejś niezwykle aktywnej debaty, bo teraz toczy się wiele sporów dotyczących właśnie tego, czy to, jak te platformy funkcjonowały dotychczas, to był przejaw cenzury, czy właśnie to, co obserwujemy teraz na przykład w kontekście X jest taką...

Więc tak, narzędzia do monitorowania mediów są dobre do tego, żeby zebrać mnóstwo informacji i po jakimś czasie je przeanalizować, ale do tego, żeby znaleźć fałszą informację, absolutnie wystarcza to, co dają nam platformy.

Na pewno byłoby super, gdyby platformy były w stanie zainwestować większe środki, chociażby w takie drobne rzeczy jak oznaczanie fałszywych treści, czy usuwanie tych jednoznacznie szkodliwych jak oszustwa.

Ale można zauważyć, że chociażby po tych danych, które wyciekły niedawno z mety, które opisywał Reuter, platformy mają same dylemat.

W sytuacji, gdy te platformy między sobą konkurują, kiedy pojawiają się nowe technologie, w które muszą one inwestować, no to takie absolutnie etyczne podejście i zablokowanie całkowita dostępu dużej części ruchu sprawi, że będą miały mniejszą kasę i ciągle...

Więc tak, myślę, że platformy dobrze, że podejmują jakieś działania, ale na pewno są one niewystarczające, żeby rozwiązać te problemy, które by te rozwiązania miały rozwiązywać.

Na pewno powinniśmy kontynuować nacisk na pewną jawność algorytmów, tak żebyśmy mieli pewność, że nie ma tam obecnie nic takiego, co by mogło wspierać celowo bądź niechcący, ale platformy nic z tym nie robią, szkodliwych zjawisk, o których tutaj mówiliśmy.

Na pewno też warto zachęcać platformy do tego, żeby przynajmniej

I warto też na podstawie tych informacji, które mam nadzieję kiedyś uzyskamy na temat tego, jak działają platformy, wspólnie zastanowić się, co możemy zrobić, żeby w jak najmniejszym stopniu promowały te najbardziej szkodliwe zjawiska.

Czy ty masz wrażenie, że to jest tak naprawdę jakoś porównywalna sytuacja, czy że rzeczywiście to przekonanie, że te platformy jakoś się tym regulacją skuteczniej wymykają jest słuszne, albo że ta odpowiedzialność jest jakoś bardziej rozmyta tam?

Jednak wszystkie te przepisy dają tylko możliwość nacisku na platformy, żeby same zrobiły coś w swoich mechanizmach, aby powstrzymywać tego rodzaju zjawiska, ponieważ nie traktujemy ich jak zwykłe media.

Właściciel platformy nie jest wydawcą.

które z większym trudem można nałożyć na platformy, a trzeba coś zrobić, żeby i tam te zjawiska, które uznajemy za szkodliwe, były ograniczone, jeżeli w ogóle uznajemy sens tego, że rzeczy, których nie chcemy, powinny zniknąć, które szkodzą ludziom, powinny być w jak najmniejszym stopniu obecne.

czegoś o sobie, a czasem możemy się dowiedzieć, co myślą o nas platformy.

Tak to wszystko sprawia, że według platformy zgadza się wzór.

No ale to może być czasem odkrycie jakiejś prawdy, której nie chcemy o sobie znać i rzeczywiście może być szokujące, że platformy o nas to wiedzą.