Mentionsy

Kościół EXE - Bez Celibatu i inne
06.12.2025 20:28

Bez Celibatu #170 Niebezpieczne zabawki AI, które niszczą dzieci - ostrzeżenia dla rodziców

W 170. odcinku „Bez Celibatu” pochylamy się nad jednym z najbardziej niepokojących zjawisk współczesności: emocjonalnym uzależnieniem dzieci od chatbotów i zabawek wykorzystujących AI.

Inspiracją do rozmowy jest podcast i komentarze dr. Alberta Mollera – teologa i prezesa jednego z największych seminariów baptystycznych w USA. Przyglądamy się najnowszym doniesieniom m.in. z Wall Street Journal oraz Washington Post, które opisują dramatyczne historie młodych ludzi tracących kontakt z rzeczywistością przez relacje z wirtualnymi „przyjaciółmi”.

W odcinku usłyszysz m.in.:

Jak firmy technologiczne manipulują dziećmi, by utrzymać ich uwagę.Dlaczego część producentów zaczyna wycofywać swoje chatboty z rynku.Przykłady niebezpiecznych odpowiedzi udzielanych przez pluszowe zabawki z AI.Historie nastolatków, którzy spędzali nawet 5–8 godzin dziennie w relacji z botem.Teologiczną, duszpasterską i społeczną perspektywę na to, co dzieje się dziś z emocjonalnością najmłodszych.

To odcinek szczególnie ważny dla rodziców, nauczycieli, duszpasterzy i wszystkich, którzy próbują zrozumieć, w jakim świecie dorastają nasze dzieci.

Szukaj w treści odcinka

Znaleziono 3 wyniki dla "Albert Moller"

Albert Mohler jest prezydentem jednego z największych seminarów teologicznych w Stanach Zjednoczonych i chyba jest to jedno z najważniejszych seminarów teologicznych kościoła baptystów na świecie.

Częściowo to, co będę mówił, jakby pochodzi od samego Alberta Mollera, częściowo to są moje komentarze, częściowo będą cytaty, którymi on też posługuje się w trakcie, więc jesteście dzisiaj skazani na mnie, ale myślę, że temat jest arcyciekawy, naprawdę.

I tutaj przykład, który Albert Moller podaje, mówi, wyobraź sobie, że producenci samochodów wypuszczają nowy rodzaj pojazdu, ale mówią, słuchajcie, wszystko w nich działa, ale czasami ten samochód robi rzeczy, których nie przewidzieliśmy i nie bardzo wiemy dlaczego.

0:00
0:00