Mentionsy

Techstorie - rozmowy o technologiach
23.09.2025 16:00

133# Roblox, kidflix i zdjęcia z wakacji. Jak źli ludzie polują na dzieci w internecie?

W czasie, kiedy będą państwo słuchać tego odcinka, organizacje pomagające dzieciom dostaną co najmniej 33 zgłoszenia materiałów pokazujących wykorzystywanie seksualne dzieci. To co najmniej 300 tys. materiałów rocznie. A skala rośnie każdego roku. Niestety, zjawisko seksualnego krzywdzenia dzieci jest także w Polsce. Odkąd policja prowadzi akcje antypedofilskie, w naszym kraju aresztowano niemal 400 osób, które miały, rozpowszechniały albo nagrywały materiały CSAM (child sexual abuse material czyli materiały pokazujące wykorzystywanie seksualne dzieci). Pedofile polują na dzieci, gdzie mogą. Wcale nie w ciemnych zaułkach, ale w serwisach społecznościowych albo w popularnych grach. I niestety często się zdarza, że rodzice podają im je na złotej tacy. To trudny odcinek. Nam też trudno się go nagrywało. Ale jest w nim też sporo rozwiązań i wskazówek, jak chronić swoje dziecko, jak zgłaszać takie materiały i w końcu - gdzie dzieci mogą szukać pomocy. JAK ZGŁASZAĆ MATERIAŁY CSAM? Co więc zrobić, gdy zauważycie takie treści? Wypełnij formularz na www.dyzurnet.pl, albo wyślij zgłoszenie na adres [email protected]. Nielegalne treści można też zgłaszać przez mObywatela, gdzie jest zakładka “Zgłoś nielegalne treści”. GDZIE SZUKAĆ POMOCY? Telefon zaufania dla dzieci i młodzieży: 116 111. Można tam anonimowo porozmawiać o problemach. Można też wysłać wiadomość na stronie https://116111.pl GOŚCIE ODCINKA: - Martyna Różycka, kierowniczka Dyżunet.pl w NASK; - komisarz Marcin Zagórski, rzecznik prasowy Komendanta Centralnego Biura Zwalczania Cyberprzestępczości. ROZDZIAŁY: 03:39 Kidflix i Fever 10:42 Skala problemu 18:35 Jak krzywdzone są dzieci? 22:23 Jak powstają materiały? 30:10 Roblox 38:00 Długofalowe efekty 41:00 Usuwanie ŹRÓDŁA: - O rozbiciu Kidfliksa: https://www.europol.europa.eu/media-press/newsroom/news/global-crackdown-kidflix-major-child-sexual-exploitation-platform-almost-two-million-users - Badania dot. pedofilii: https://pubmed.ncbi.nlm.nih.gov/26241201/ - Zgłoszenia do Internet Watch Foundation: https://www.iwf.org.uk/annual-data-insights-report-2024/data-and-insights/reports-assessment/ - Zgłoszenia do INHOPE: https://inhope.org/EN/articles/inhope-annual-report-2024 - Psychologia pedofilów: https://www.nytimes.com/2019/09/29/us/pedophiles-online-sex-abuse.html - O polowaniu na dzieci w Robloksie: https://www.wired.com/story/is-roblox-getting-worse/

Szukaj w treści odcinka

Znaleziono 6 wyników dla "CSAM"

Nawet przede wszystkim tak naprawdę w tym odcinku skupimy się oprócz opowieści o skali problemu, zjawiskach, jakie ten problem kreują, to jednak na doradzeniu Wam wszystkim, nasi słuchacze, co powinniśmy robić z tak zwanym CSAM, czyli treściami, które dotyczą wykorzystywania dzieci w internecie.

No chyba trzeba wytłumaczyć, co to jest CSAM, bo my na razie mówimy cały czas treści pedofilskie, ale prawidłowym terminem jest właśnie CSAM.

CSAM, czyli Child Sexual Abuse Material, czyli materiały, które pokazują wykorzystywanie seksualne dzieci.

Jest tak duża częściowo też przez nas, dorosłych, bo materiały CSAM można podzielić według ich powstania.

Po takim zgłoszeniu, kiedy NASK już je otrzyma, to NASK po prostu zaczyna działać i przede wszystkim ocenia, czy strona, którą przesłaliśmy, faktycznie zawiera treści CSAM albo jakieś tam inne nielegalne.

Zgłasza się go następnie w bazie ICSAM Interpol, aby służył identyfikacji ofiar oraz sprawców.