Smartfon w rękach dziecka: jeden klik od twardej pornografii
2025-04-11 16:43:45(ost. akt: 2025-04-11 16:48:40)
Pod nakładką kaczuszki na popularnym medium społecznościowym pojawić się może twarda pornografia, a niewinne zdjęcie z przedszkolnej imprezy może zacząć żyć w zupełnie innym kontekście – przestrzega Kinga Szostko, twórczyni portalu bezpiecznedziecko.org, w którym edukuje rodziców przed zagrożeniami czyhającymi na najmłodszych w sieci.
Każdy z nas wie, że w internecie można znaleźć wiele niebezpiecznych dla dzieci rzeczy, ale na co konkretnie dzieciaki natykają się, skrolując telefon?
Prościej byłoby odpowiedzieć, na co się nie natykają. I naprawdę mam na myśli straszne treści począwszy od ucinania głowy, a skończywszy na twardej pornografii, przekrój jest olbrzymi. I to nawet gdy tego nie szukają - takie treści są im podsuwane pod sam nos. Tak działa algorytm traumy.
Algorytm traumy, co to takiego?
Taki sposób serwowania treści, aby pobudzał nasze lęki. Jeśli tylko zostanie wyłapana najdrobniejsza oznaka zainteresowania czymś, natychmiast zaczynamy dostawać informacje na ten temat. Tyle, że dodatkowo wykorzystywana jest wrażliwość odbiorcy, co prowadzi do tego, że na jakimś punkcie wciągany jest w spiralę treści, które pogrążają go w problemach. W jednym z badań przeanalizowano treści, jakie kobietom w ciąży podsuwała jedna z platform - okazało się, że trafiały do nich w dużych ilościach treści, które je straszyły: dotyczące śmierci łóżeczkowej, niebezpiecznych chorób, jakie mogą przytrafić się małym dzieciom, wypadków, które mogą się zdarzyć itd.
Postanowiliśmy to sprawdzić i w tym celu zrobiliśmy z zespołem naszego portalu doświadczenie: wzięliśmy nowy telefon, nową kartę SIM, założyliśmy nową skrzynkę mailową - wszystko pozbawione śladów cyfrowych. Po 2 minutach użytkowania Tik toka na nowym koncie w sugerowanych treściach zaczęły pojawiać się treści suicydalne na temat chłopca, który zamierzał popełnić samobójstwo.
Ale po co kogoś straszyć? Przecież to może zadziałać odwrotnie: nie chcę tego czytać, więc nie będę tam zaglądać.
Niestety, nasz umysł tak nie działa. Żyjemy w dziwnych czasach i to nie jest przypadek, że jesteśmy podżegani do konkretnych zachowań. Aplikacje internetowe, serwisy społecznościowe mają olbrzymi wpływ na psychikę, uzależniają, a uzależnionymi i zastraszonymi ludźmi łatwiej manipulować, namawiać, by reagowali na wrzucane treści. Mamy dziś kryzys psychiatrii dziecięcej, zresztą nie tylko u nas - podobnie sytuacja wygląda i w krajach europejskich, i w Stanach Zjednoczonych, i w innych częściach świata. Nadużywanie social mediów powoduje pogorszenie samopoczucia, dobrostanu psychicznego. Niektóre rządy zauważyły związek i reagują na to. Kilka państw, m.in. Francja, Niemcy, Belgia, Australia, wprowadziło przepisy mające na celu ograniczenie korzystania z mediów społecznościowych przez dzieci i młodzież. W Polsce wciąż podchodzimy do tego zbyt pobłażliwie.
Jakie ukryte treści może zobaczyć dziecko skrolując telefon?
Moim zdaniem social media przestały nad tym panować, a wnioskuję to na podstawie naszego doświadczenia: jako fundacja wielokrotnie zabezpieczaliśmy szkodliwe materiały i zgłaszaliśmy je do różnych instytucji.
Kilka miesięcy temu na TikToku był wysyp twardych treści pornograficznych ukrytych w filtrach nakładek słodkich zwierzaczków - można było być kaczuszką, żabką, kotkiem. Tyle że po kliknięciu w daną nakładkę zamiast kaczuszki pojawiały się kilkusekundowe twarde treści pornograficzne. I proszę mi wierzyć, nie były to kreskówki czy zapikselowane obrazki. Takich treści w najgorętszym okresie wykrywaliśmy po 20 dziennie i każdy z nich przedstawiał inne treści pornograficzne. Podobna akcja miała miejsce rok wcześniej na TikToku w Stanach Zjednoczonych tylko tam pod podobnymi filtrami były wpakowane twarde treści pornograficzne z udziałem dzieci.
Kilka miesięcy temu na TikToku był wysyp twardych treści pornograficznych ukrytych w filtrach nakładek słodkich zwierzaczków - można było być kaczuszką, żabką, kotkiem. Tyle że po kliknięciu w daną nakładkę zamiast kaczuszki pojawiały się kilkusekundowe twarde treści pornograficzne. I proszę mi wierzyć, nie były to kreskówki czy zapikselowane obrazki. Takich treści w najgorętszym okresie wykrywaliśmy po 20 dziennie i każdy z nich przedstawiał inne treści pornograficzne. Podobna akcja miała miejsce rok wcześniej na TikToku w Stanach Zjednoczonych tylko tam pod podobnymi filtrami były wpakowane twarde treści pornograficzne z udziałem dzieci.
Co może zrobić rodzic, gdy wykryje na telefonie swojego dziecka treści, które go szokują?
Jeszcze kilka lat temu miałam na to receptę. Dziś eskalacja zła, które dzieje się w social mediach powoduje, że rozkładam ręce, nie znam skutecznego sposobu poza tym radykalnym, czyli odinstalowaniem aplikacji.
Powiem tak: jako mama i ekspert w jednej osobie zezwoliłam swojemu synowi na scrollowanie TikToka przez pół godziny w weekend. Robi to pod moją kontrolą, czyli razem oglądamy te przysłowiowe śmieszne kotki. I któregoś dnia trafiliśmy na filmik o tym, jak obdarto kotka ze skóry i ugotowano. Stało się to pod moją kontrolą. Od tego momentu już nie skrolujemy TikToka, a mój syn na pewno nie będzie miał tam nigdy założonego konta.
I oczywiście można takie treści blokować, zgłaszać administracji portalu, ale niestety, nie zawsze przynosi to efekt, mamy coraz więcej sygnałów, że po zgłoszeniu coś znika, by po kilku dniach pojawiło się znowu. Granice tolerancji są wciąż przesuwane – od jakiegoś czasu mamy wysyp szokująco wulgarnych komentarzy.
Powiem tak: jako mama i ekspert w jednej osobie zezwoliłam swojemu synowi na scrollowanie TikToka przez pół godziny w weekend. Robi to pod moją kontrolą, czyli razem oglądamy te przysłowiowe śmieszne kotki. I któregoś dnia trafiliśmy na filmik o tym, jak obdarto kotka ze skóry i ugotowano. Stało się to pod moją kontrolą. Od tego momentu już nie skrolujemy TikToka, a mój syn na pewno nie będzie miał tam nigdy założonego konta.
I oczywiście można takie treści blokować, zgłaszać administracji portalu, ale niestety, nie zawsze przynosi to efekt, mamy coraz więcej sygnałów, że po zgłoszeniu coś znika, by po kilku dniach pojawiło się znowu. Granice tolerancji są wciąż przesuwane – od jakiegoś czasu mamy wysyp szokująco wulgarnych komentarzy.
No, ale chyba normalne rzeczy też można tam napotkać?
Oczywiście, że tak. Są tzw. TikTokerzy, którzy wyłącznie tam budują swoje zasięgi i wstawiają wiele ciekawych rzeczy. Ja akurat zajmuję się wyłapywaniem tych złych, więc na nich się skupiam. Opisałabym to jako budyń z sokiem, tylko pytanie, czy użytkownik będzie w stanie sobie wyważyć czy będzie miał więcej budyniu czy soku. Czy dzieci poniżej trzynastego roku życia, których na TikToku jest bardzo dużo, potrafią dokonywać świadomych wyborów wśród tego typu treści? Wiele z nich ogląda wszystko jak leci. A to one właśnie mają największą ilość niebezpiecznych treści podawanych przez telefon.
Interweniujesz też w placówkach oświatowych. Tam też popełniane są błędy?
Niestety, to wciąż nie dla wszystkich jest oczywiste, że publikowanie wizerunku dziecka jest niebezpieczne.
Niebezpieczne? Czy to nie przesada?
Na pozór faktycznie to może wydawać się przesadzone. I w większości przypadków nie stanie się nic złego. Do momentu, kiedy taka sytuacja nie spotka naszego dziecka. Opowiem na przykładach. Cóż złego może być w opublikowaniu zdjęć z niewinnej zabawy dzieci w przedszkolu w Dniu Kota? Na stronach pewnej placówki pojawiły się fotki z grupką maluchów chłepczących mleko z miseczek. Kilka dni później to zdjęcie zaczęło żyć własnym życiem w sieci, opatrzone wulgarnymi podpisami z treściami pedofilskimi.
Musimy zdawać sobie sprawę, że jedno zdjęcie wystarczy, żeby wygenerować na jego podstawie deepfake, np. rozebrać osobę lub zainicjować nieprawdziwą sytuację. 50 proc. ujawnianych przez służby baz pedofilskich to otwarte kanały, takie jak Facebook Instagram, WhatsApp, TikTok. Pedofile mają swoje ulubione powiedzenie: „Dziękujemy za mamuśki z Instagrama”. To zdanie chyba nie wymaga komentarza. Nawet duże marki wykorzystujące legalnie wizerunek dzieci, np. zatrudniające je jako modele, odchodzą od tego, generują zdjęcia z wizerunkami dzieci sztucznie, bo mają świadomość co się z tymi zdjęciami dzieje w sieci. Powiedzmy to jasno: jeśli wrzucasz publicznie zdjęcie do internetu, tracisz nad nim kontrolę, nigdy nie wiesz, co się z nim stanie, czy temu dziecku nie zostanie ukradziona tożsamość czy nie stanie się ofiarą pedofila.
Musimy zdawać sobie sprawę, że jedno zdjęcie wystarczy, żeby wygenerować na jego podstawie deepfake, np. rozebrać osobę lub zainicjować nieprawdziwą sytuację. 50 proc. ujawnianych przez służby baz pedofilskich to otwarte kanały, takie jak Facebook Instagram, WhatsApp, TikTok. Pedofile mają swoje ulubione powiedzenie: „Dziękujemy za mamuśki z Instagrama”. To zdanie chyba nie wymaga komentarza. Nawet duże marki wykorzystujące legalnie wizerunek dzieci, np. zatrudniające je jako modele, odchodzą od tego, generują zdjęcia z wizerunkami dzieci sztucznie, bo mają świadomość co się z tymi zdjęciami dzieje w sieci. Powiedzmy to jasno: jeśli wrzucasz publicznie zdjęcie do internetu, tracisz nad nim kontrolę, nigdy nie wiesz, co się z nim stanie, czy temu dziecku nie zostanie ukradziona tożsamość czy nie stanie się ofiarą pedofila.
Nawet jeśli chcę się pochwalić zdjęciem dziecka ze świadectwem z czerwonym paskiem?
Powiem tak: z punktu widzenia stricte operacyjnego jeżeli na świadectwie widać szkołę, imię, nazwisko, miejsce zamieszkania bądź miejscowość – cokolwiek z tych rzeczy - jestem w stanie na tej podstawie ustalić gdzie to dziecko mieszka, jak się nazywa, do której szkoły i do jakiej klasy chodzi. Proszę mi wierzyć, że są ludzie, którzy lubią sobie szukać takich dzieci, namierzać je w sieci, znajdować ich profile na social mediach, a potem zaczepiać je. Zdjęcie ze świadectwem, na którym będzie widać jakiekolwiek ślady cyfrowe, po których jesteśmy w stanie dojść do tego dziecka, to proszenie się o porwanie, albo o inną niebezpieczną sytuację.
A jeśli zadbamy o to, by nie było widać danych? Co złego jest w tym, że pochwalę się, że mam mądre dziecko?
Usystematyzujmy: oczywiście samo wrzucenie zdjęcia dziecka do sieci nie jest niczym złym. Musimy jednak zdawać sobie sprawę z potencjalnych konsekwencji: nad takim zdjęciem nie mamy już kontroli. Z tego zdjęcia może zostać wyprodukowany deepfake, może zostać rozebrane za pośrednictwem AI, może trafić do darknetu, można mu ukraść tożsamość, wykorzystać jego buzię do różnych przerażających rzeczy. Kilka lat temu, kiedy AI jeszcze raczkowała, wygenerowałam sobie takie sztuczne dziecko i na potrzeby eksperymentu ukradłam mu tożsamość. Na tej podstawie byłam w stanie wygenerować filmiki, jak to dziecko tańczy i tak dalej. Dziś możliwości są znacznie większe. Nie dalej jak kilka tygodni temu analizowaliśmy sytuację, w której chłopcy za pomocą AI rozebrali swoją koleżankę i te rozebrane zdjęcia wrzucili do sieci. Chyba nie muszę tłumaczyć, co to dla niej oznacza.
Brakuje poważnej edukacji, żeby młodzi ludzie mieli świadomość jak straszne konsekwencje może mieć takie zachowanie…
Warto zdać sobie sprawę z tego, że mamy przynajmniej dwa światy. Jeden to świat nastolatków, którzy doskonale wiedzą, jak wirtualnie zadawać przemoc rówieśniczą. Wypuszczanie publicznie rozbieranych zdjęć, nękanie na komunikatorach, zakładanie fałszywych profili – to dla nich nie problem. Ostatnia moda to wstawianie na Vinted ogłoszeń typu: „Czternastoletnia szuka takiego i takiego pana” z danymi koleżanek. Są nastolatkowie, którzy doskonale wiedzą, jak poruszać się w tej przestrzeni i robią to z pełną świadomością. I uwierz – jest ich bardzo dużo. I drugi świat - ofiar tych działań i ich rodziców, którzy kompletnie nie mają pojęcia, o tym co się dzieje w internecie. Te dwa światy ścierają się, a efekty tego, co jakiś czas widzimy w mediach. I autentycznie nie ma tygodnia, żebyśmy nie dowiadywali się o tego typu nadużyciach. Skala jest przerażająca, a o wielu z nich opinia publiczna nie ma pojęcia, bo nie wydostają się na światło dzienne. My to widzimy analizując sprawy samobójstw nastolatków.
red./PAP
Komentarze (0) pokaż wszystkie komentarze w serwisie
Komentarze dostępne tylko dla zalogowanych użytkowników. Zaloguj się.
Zaloguj się lub wejdź przez