Cała prawda o TikToku, czyli co wiemy z odtajnionych akt spraw z USA
TikTok doczekał się przymusowej restrukturyzacji w Stanach Zjednoczonych, co doprowadziło do utworzenia podmiotu TikTok USDS Joint Venture LLC, jednak zbyt rzadko i zdecydowanie za mało mówi się o konkretnych powodach, dla których tak się stało. Dziś, chciałabym skupić się na tych najważniejszych, czyli o tym, że TikTok doskonale wie, że krzywdzi dzieci i robi to na skalę masową, a mogliśmy się o tym dowiedzieć z wycieku wewnętrznych raportów TikToka, które ujrzały światło dzienne podczas 14 wytoczonych przez prokuratorów generalnych pozwów na terenie USA*. Zawierają one prawdziwe wypowiedzi pracowników TikToka (czcionka pogrubiona), często działających na wyraźne polecenie swoich kierowników, które pierwotnie, zostały dość nieudolnie zablurowane, ale za pomocą prostej techniki (kopiuj – wklej) odblurowano je, ujawniając ich treść opinii publicznej. Właściwie mogę tylko dodać, że każdy z tych cytatów, zespół operacyjny KidsAlert widzi na własne oczy w codziennej pracy, szkoda natomiast, że nie widzą lub nie chcą tego widzieć osoby odpowiedzialne za bezpieczeństwo najmłodszych obywateli w naszym kraju..
Krzywdzenie dzieci na TikToku odbywa się na kilku poziomach i zgodnie z materiałami źródłowymi zachowam ten porządek, dzieląc tekst na kilka części zgodnie z punktami:
- Uzależnienie, kompulsywne i problematyczne używanie
- Depresja, lęk, dysmorfofobia, samookaleczenie i samobójstwo
- Pornografia, przemoc i narkotyki
- Szantaż seksualny, CSAM i wykorzystywanie seksualne
- Korzystanie z aplikacji przez osoby poniżej 13 roku życia
Grupa 1. Uzależnienie, kompulsywne i problematyczne używanie
Jak możemy przeczytać w jednym z wewnętrznych raportów dotyczącego problematycznego, kompulsywnego używania aplikacji przez młodych ludzi:
„Kompulsywne używanie TikToka wiąże się z szeregiem negatywnych skutków dla zdrowia psychicznego, takich jak utrata umiejętności analitycznych, zapamiętywania, myślenia kontekstowego, głębi konwersacji, empatii i zwiększony niepokój”, a także „zakłócanie podstawowych obowiązków osobistych, takich jak wystarczająca ilość snu, obowiązki zawodowe/szkolne i utrzymywanie kontaktów z bliskimi”.
Rodzice powinni mieć też świadomość, że narzędzia kontroli rodzicielskiej TikToka są nieskuteczne i rzadko kiedy stosowane, a nawet są instalowane, to wykazują szereg poważnych luk bezpieczeństwa osób małoletnich, jak czytamy w raporcie:
„Badania użytkowników pokazują, że rodzice nie korzystają z Family Pairing i że Family Pairing nie rozwiązuje najważniejszych problemów rodziców”, w tym „niewłaściwych treści, obraźliwych interakcji i braku prywatności”.
Nawet gdyby kontrola rodzicielska działała i rodzice postanowili chronić swoje dzieci przed szkodliwymi treściami, nie mogą tego zrobić, ponieważ moderacja treści na TikToku jest słaba. Wewnętrzne badanie wykazało, że „wskaźnik wycieku” (szkodliwych treści omijających moderatorów) przedstawia się następująco: 35,71% treści „Normalizacja pedofilii”, 33,33% treści „Nagabywanie osób małoletnich o seks”, 39,13% treści „Drobne znęcanie się fizyczne”, 30,36% treści „Wyprowadzanie nieletnich z platformy”, 50% treści „Gloryfikacja nieletnich o seksie” i 100% treści „Fetyszyzacja nieletnich”. Te dane pokrywają się z naszym ostatnim alertem dotyczącym badania „Jak długo treści związane z samookaleczaniem znajdują się na TikToku”, w którym udowodniliśmy, że wykazują one niewiarygodną odporność na moderację, a rekordowe, szkodliwe materiały pozostawały na platformie latami (rekordowy film prawie 5 lat).
Wśród najczęściej zgłaszanych szkód związanych z TikTokiem jest jego zdolność do wciągania młodych ludzi i nie wypuszczania ich z pętli algorytmu godzinami. Algorytm TikToka jest powszechnie uważany za najlepszy w swojej klasie, jeśli chodzi o utrzymywanie użytkowników w ciągłym przewijaniu. Ten raport pokazuje, że 33% amerykańskich nastolatków (w wieku 13-17 lat) twierdzi, że jest na platformie mediów społecznościowych „prawie stale”, a 16% twierdzi, że tylko dla TikToka. (Szacuje się, że w 2023 r. w USA było około 21,8 miliona nastolatków (13-17), co przekłada się na około 3,4 miliona amerykańskich nastolatków twierdzących, że są na TikToku niemal stale). Widać też, że TikTok ma na celu stworzenie właśnie takiego kompulsywnego użytkowania, które z kolei może prowadzić do problematycznych zaburzeń użytkowania i uzależnień behawioralnych, które następnie pogłębiają szkody w pozostałych czterech grupach. Firma robi to, mimo, iż wielu jej pracowników uważa, że jej produkt ma negatywny wpływ na rozwój dzieci.
Dyrektorzy i pracownicy TikToka, przyznali, że ich celem są młodzi ludzie: „Lepiej, żeby młodzi ludzie byli pierwszymi użytkownikami, zwłaszcza nastolatkowie w USA. Dlaczego? Mają dużo czasu ”, oraz „ Nastolatki w USA to znakomita publiczność... Jeśli spojrzeć na Chiny, widać, że kultura młodzieżowa tam nie istnieje - nastolatkowie są bardzo zajęci nauką do testów w szkole, więc nie mają czasu ani luksusu, żeby korzystać z aplikacji mediów społecznościowych ” i „Produkt sam w sobie ma w sobie wbudowany element kompulsywnego używania ”, czy też „ Dzieci oglądają TikToka, bo algorytm jest naprawdę dobry… Ale myślę, że musimy zdawać sobie sprawę z tego, co to może oznaczać dla innych możliwości. A kiedy mówię o innych możliwościach, mam dosłownie na myśli sen, jedzenie, poruszanie się po pokoju i patrzenie komuś w oczy ” .
Z kolei wewnętrzna prezentacja strategii TikToka na rok 2021 opisuje firmę jako biorącą udział w „ wyścigu zbrojeń o uwagę ”, z którego wynika: „Zgodnie z oczekiwaniami, w przypadku większości wskaźników zaangażowania, im młodszy użytkownik, tym lepsze wyniki”, czy: „TikTok jest szczególnie popularny wśród młodszych użytkowników, którzy są wyjątkowo wrażliwi na wzmocnienia w formie nagród społecznych i mają niewielkie zdolności do skutecznej samoregulacji”.
Ciekawym wątkiem jest też uchylenie rąbka tajemnicy związanej z samym algorytmem, czy jak to nazywam „popisu inżynierii behawioralnej”, w której w mojej ocenie, platforma jest niedoścignionym mistrzem świata: sukces TikToka „można w dużej mierze przypisać silnej personalizacji i automatyzacji, co ogranicza swobodę działania użytkownika” oraz „doświadczeniu produktu wykorzystującemu wiele przymusowych taktyk projektowych”, w tym „licznym funkcjom” takim jak „niekończące się przewijanie, automatyczne odtwarzanie, ciągłe powiadomienia” i „efekt «automatu do gry»” — które „można uznać za manipulacyjne”. I tutaj już w odniesieniu do dzieciaków korzystających z platformy: TikTok przyznaje że nastolatki są szczególnie podatne na kompulsywne korzystanie z platformy TikTok. Wewnętrzne dokumenty podkreślają fakt, że nieletni użytkownicy są „szczególnie wrażliwi na wzmocnienia w formie nagród społecznych”, mają „minimalną zdolność do skutecznej samoregulacji” i „nie posiadają funkcji wykonawczych pozwalających kontrolować czas spędzany przed ekranem”.
Do „kompletu” wypadałoby dodać inne znaleziska z wypowiedziami pracowników TikToka dotyczących obecności najmłodszych na platformie, a mianowicie: „ TikTok jest szczególnie popularny wśród młodszych użytkowników, którzy są postrzegani jako bardziej podatni na szkody w Internecie i negatywne skutki kompulsywnego korzystania z niego”, natomiast inny wewnętrzny raport oparty na pogłębionych wywiadach z użytkownikami TikToka wykazał, że nadmierne korzystanie z TikToka powodowało „negatywne emocje”, „zakłócało obowiązki i produktywność użytkowników” oraz prowadziło do „negatywnych skutków… na ich życie”, w tym „brak snu, niedotrzymywane terminy, słabe wyniki w szkole, spóźnienia itp.”. W raporcie podano, że „wielu uczestników opisało, że korzystanie z TikToka zakłócało ich sen, co ograniczało ich produktywność i wydajność następnego dnia” oraz, że „każdy uczestnik wskazał, że zarządzanie czasem na TikToku było szczególnie trudne w porównaniu z innymi platformami mediów społecznościowych”. Istotnym faktem jest to, że użytkownicy TikToka zgłaszają platformie: iż „czują się uwięzieni w króliczej norze, w której ogranicza ich to, co nasz algorytm uważa, że im się podoba”. Na zakończenie punktu pierwszego: Alexandra Evans, jeszcze zanim została dyrektorką TikToka, była współautorką raportu wyjaśniającego, jak przymusowy design wpływa na nastolatków: „Strategie projektowania perswazyjnego wykorzystują naturalną ludzką potrzebę bycia towarzyskim i popularnym, wykorzystując lęk przed brakiem towarzyskości i popularności, aby wydłużyć czas korzystania z internetu. Dla młodych ludzi tożsamość wymaga ciągłej uwagi, pielęgnowania i odnawiania. Na kluczowych etapach rozwoju niezwykle ważne może być uzyskanie akceptacji ze strony grupy rówieśniczej”.
Podsumowując, TikTok z pełną premedytacją i nieprawdopodobną determinacją świadomie wciąga młodych użytkowników w sidła algorytmu. Żadne dziecko nie jest w stanie się temu przeciwstawić, bo nie posiada mechanizmów obronnych o czym platforma doskonale wie, nie stanowi to jednak dla niej żadnego problemu.
Grupa 2. Depresja, lęk, dysmorfofobia, samookaleczenie i samobójstwo
Zaczynamy od „wysokiego C”, dokumentu Digital Wellbeing, gdzie TikTok przyznaje, że „oferowanie efektów, które utrwalają wąskie normy piękna może mieć negatywny wpływ na dobrostan naszej społeczności”. Z kolei Raport TikTank (wewnętrznej grupy TikTok badającej problemy wpływające na TikToka) wykazał również, że „kompulsywne korzystanie koreluje z szeregiem negatywnych skutków dla zdrowia psychicznego, takich jak utrata umiejętności analitycznych, zapamiętywania, myślenia kontekstowego, głębi konwersacji, empatii i zwiększony lęk ”. Ponadto „ kompulsywne korzystanie zakłóca również podstawowe obowiązki osobiste, takie jak odpowiednia ilość snu, obowiązki zawodowe/szkolne i utrzymywanie relacji z bliskimi”. Co więcej, w jednym z eksperymentów pracownicy TikToka tworzyli konta testowe i obserwowali ich wpadanie w negatywne bańki filtrujące. Jeden z pracowników napisał: „ Po śledzeniu kilku kont na portalach „painhub” i „sadnotes” zajęło mi 20 minut, zanim wpadłem w „negatywną” bańkę filtrującą. Intensywne zagęszczenie negatywnych treści obniża mój nastrój i potęguje uczucie smutku, mimo że w ostatnim czasie jestem w dobrym humorze”. Inny pracownik zauważył: „jest wiele filmów wspominających o samobójstwie”, w tym jeden z pytaniem: „Gdybyś mógł się zabić, nikogo nie krzywdząc, czy byś to zrobił?”. Te zeznania również zdają się potwierdzać prace zespołu KidsAlert, nie ma dnia, abyśmy nie otrzymali zgłoszenia o dziecku informującym o zamiarze pozbawienia siebie życia na platformie TikTok, a treści te „przyklejają” się nawet do tych użytkowników, którzy nie wyszukują takich treści w aplikacji.
Kolejna kwestia w której temacie posiadamy szerokie doświadczenie operacyjne i zabezpieczony materiał dowodowy, to nieskuteczna moderacja takich niebezpiecznych treści. TikTok wie, że „recenzje R1 nie wychwytują wielu treści naruszających Zasady społeczności lub ograniczających treści do grup odpowiednich wiekowo.”
Na przykład prezentacja dotycząca moderowania treści dotyczących samobójstw i samookaleczeń zauważa, że „moderatorzy R1 nie zawsze posługują się językiem używanym w filmach, nie rozumieją kontekstu i nie otrzymują przypomnień o nowych instrukcjach”, co w naszym rozumieniu kompletnie dyskredytuje moderację, bo nie wie ona nawet co jest szkodliwe (!).
W tej grupie mamy też dostępny fragment notatki opisujący „filmy wysłane na fikcyjne konta utworzone przez biuro prokuratora generalnego, podszywające się pod 13-, 15- i 17-letnie konta mieszkańców Nebraski. „W ciągu kilku minut od przejrzenia sekcji „Dla Ciebie” na TikToku – zanim konta wyszukały jakiekolwiek filmy lub „zaobserwowały” jakichkolwiek użytkowników – algorytm TikToka wielokrotnie ujawniał każdemu kontu nastolatka z Nebraski treści o charakterze erotycznym i w inny sposób nieodpowiednie”. Niektóre filmy wysyłane młodym dziewczynom – wyłącznie ze względu na ich wiek i płeć – wyraźnie zachęcały je do głodzenia się oraz stwierdzenie, że: Niektóre z filmów wyraźnie promują samobójstwo jako sposób ucieczki od bólu psychicznego.”
Podsumowując, TikTok celowo nie moderuje treści szkodliwych, narażając swoich użytkowników na uszczerbek na zdrowiu psychicznym i fizycznym, a także utratę życia. Podżega również nieletnich do określonych, skrajnie niebezpiecznych zachowań, sugerując użytkownikom popełnienie samobójstwa.
Grupa 3. Pornografia, przemoc i narkotyki.
Zespół KidsAlert, wielokrotnie informował za pośrednictwem swoich alertów, że na TikToku powszechnie pojawiają się treści pornograficzne, brutalne i związane z narkotykami. Treści te są często wyświetlane w aktualnościach, kanale „Dla Ciebie” oraz w transmisjach „na żywo” TikToka. Chociaż nagość, pornografia, treści o charakterze seksualnym, niechciane akty seksualne, udostępnianie niechcianych intymnych obrazów i nagabywanie seksualne, przemoc czy patostreaming naruszają wytyczne TikToka, treści te są łatwo dostępne i polecane użytkownikom, w tym najmłodszym dzieciom.
W wewnętrznym dokumencie omawiającym sposób reagowania na serię zgłoszeń dziennikarzy Wall Street Journal, pracownicy TikToka przyznali się do istotnych uchybień w swojej pracy, w tym między innymi do faktu, że „ 46,5% treści o charakterze seksualnym i narkotykowym udostępnianych przez WSJ nie jest objętych istniejącą polityką moderacji”. Podobnie „wskaźnik wycieku treści o charakterze seksualnym i narkotykowym z moderacji wynosi 73,5%”. Powodem tego niepowodzenia moderacji jest to, że „najczęściej występujące tytuły polityk to język o charakterze seksualnym i wzmianki o narkotykach”, podczas gdy „ język ukryty (np. język zakodowany) jest często używany w filmach i nie jest wychwytywany przez moderatorów”. Możemy to porównać do ukrytych symboli samookaleczania, które publikowaliśmy w KidsAlert już dwukrotnie.
Co przerażające, raport (TT Live & US Safety Summit, „Project Meramec”) potwierdza również, że „nieletni mają łatwy dostęp do transmisji na żywo” i że „nie ma strategii transmisji związanej z wiekiem”. Ponadto raport przyznaje, że „jednym z naszych kluczowych odkryć podczas tego projektu, które przerodziło się w poważne wyzwanie w branży transmisji na żywo, jest to, że treści, które generują największe zaangażowanie, mogą nie być tymi, których oczekujemy na naszej platformie. Treści o charakterze seksualnym o charakterze transmisyjnym uwzględniają setki sygnałów, które wpływają na algorytm, a także na wskaźniki sukcesu LiveOps – liczbę prezentów, częstotliwość transmisji na żywo, liczbę komentarzy itp.”.
Chociaż TikTok szczyci się rygorystycznymi procedurami weryfikacji treści, (słynne kampanie reklamowe w Polsce na temat „bezpiecznego TikToka), nie ujawnia on znaczących wskaźników „wycieków” , mierzących odsetek treści naruszających zasady, które nie są moderowane ani usuwane. Wewnętrznie TikTok zna częstotliwość, z jaką niektóre kategorie treści przeciekają przez procesy moderacji, powtórzmy je, to: 35,71% treści „Normalizacja pedofilii”, 33,33% treści „Nagabywanie osób o charakterze seksualnym”, 39,13% treści „Przemoc fizyczna o charakterze seksualnym”, 30,36% treści „Wyprowadzanie nieletnich z platformy”, 50% treści „Gloryfikacja nieletnich napaści seksualnych”, oraz 100% treści „Fetyszyzacja nieletnich”.
TikTok wie również, że transmisje LIVE są wykorzystywane do prania pieniędzy i innych działań przestępczych. W 2021 roku TikTok uruchomił „Projekt Jupiter”, aby zbadać podejrzenia, że zorganizowana przestępczość wykorzystuje LIVE do prania pieniędzy za pośrednictwem funkcji podarunkowej TikToka. TikTok odkrył, że przestępcy sprzedawali narkotyki i przeprowadzali oszustwa na LIVE. (TikTok posiada system wirtualnej waluty, w którym użytkownicy mogą sobie nawzajem „podarować” prezenty). TikTok przyznaje, że wykorzystywanie seksualne i nielegalne działania w transmisjach na żywo (LIVE) są „kontrowersyjne” i pogłębiane przez jego własny system monetyzacji. Pomimo wewnętrznego przyznania, że „treści o charakterze seksualnym na żywo zyskują na popularności”, TikTok odmawia ostrzegania konsumentów przed tymi zagrożeniami. Zamiast tego TikTok planuje „lepiej wykorzystać metody monetyzacji, takie jak wręczanie prezentów i subskrypcje, aby generować przychody…”. Śledztwo prowadzone przez Wydział przed wniesieniem pozwu potwierdziło również, że platforma TikTok ułatwia sprzedaż nielegalnych narkotyków nieletnim, tuż „pod naszym domem”, co obejmuje m.in. umożliwienie użytkownikom TikToka oferowania sprzedaży i dostawy narkotyków, takich jak Xanax, Valium i MDMA, dzieciom w Salt Lake City.
W Polsce obserwujemy podobny proceder, nasz zespół operacyjny przygotował w temacie obszerny raport, natomiast na ten moment nie został on jeszcze upubliczniony. Planujemy jego publikację na luty 2026 roku.
Kiedy The Journal udostępnił „próbkę 974 filmów o narkotykach, pornografii i innych treściach dla dorosłych, które udostępniono osobom niepełnoletnim”, rzecznik TikToka oświadczył, że „większość z nich nie naruszyła wytycznych” — choć kilkaset z nich zostało później usuniętych — i że „aplikacja TikTok nie rozróżnia filmów udostępnianych osobom dorosłym i niepełnoletnim”.
Na swojej stronie internetowej TikTok informuje, że użytkownicy w trybie ograniczonego dostępu (czyli trybu który rodzic może włączyć w kontroli rodzicielskiej) „nie powinni widzieć treści dla dorosłych lub złożonych, takich jak: wulgaryzmy, treści o charakterze seksualnym, realistycznej przemocy lub obrazy grożące, broń palna lub broń w nieodpowiednim otoczeniu, substancje nielegalne lub kontrolowane/narkotyki oraz wyraźne odniesienia do treści dla dorosłych lub złożonych, które mogą odzwierciedlać osobiste doświadczenia lub wydarzenia ze świata rzeczywistego, przeznaczone dla starszych odbiorców”. Sprawdziliśmy i udokumentowaliśmy tą kontrolę rodzicielską. Treści te są dostępne na platformie nawet w ograniczonym trybie dostępu. Ta kontrola rodzicielska jest jedną wielką manipulacją.
Podsumowując, TikTok zaprzecza sam sobie. Regulamin platformy na pierwszy rzut oka wygląda dobrze, natomiast platforma sama się do niego nie stosuje zakłamując rzeczywistość na potęgę. Jeśli zapytacie dlaczego to robi, odpowiem krótko: „Bo może to robić!”.
Grupa 4. Szantaż seksualny, CSAM i wykorzystywanie seksualne
Koncentrując się na środowisku amerykańskim (w polskiej przestrzeni TikTok nie jest zobowiązany do żadnych zasad, ustaleń, czy obowiązków) prawo federalne nakazuje oskarżonym zgłaszanie podejrzeń o wykorzystywanie seksualne dzieci (CSAM) do Narodowego Centrum ds. Dzieci Zaginionych i Wykorzystywanych (NCMEC) na podstawie § 2258A tytułu 18 Kodeksu Stanów Zjednoczonych. Aby ograniczyć i uniknąć obowiązku zgłaszania takich przypadków na mocy prawa federalnego, TikTok celowo zaprojektowali aplikację tak, aby nie zawierała nowoczesnej technologii wykrywania wykorzystywania seksualnego dzieci (CSAM). I chociaż TikTok zintensyfikowali zgłaszanie zaginionych i wykorzystywanych dzieci do NCMEC [Narodowego Centrum ds. Zaginionych i Wykorzystywanych Dzieci] - zgłosili 362 108 zgłoszeń w drugiej połowie 2023 r. działania te pokazują, jak rażąco niedbały był TikTok w przeszłości, z zaledwie 596 zgłoszeniami w 2019 r. i 22 692 w 2020 r. Lekceważenie przez TikToka bezpieczeństwa młodych użytkowników naraziło na niebezpieczeństwo niezliczoną liczbę dzieci, w tym dzieci. TikTok od dawna wiedział (i to ukrywał), o poważnych zagrożeniach związanych z transmisjami na żywo, zwłaszcza dla dzieci. Jak sam TikTok przyznaje: „stworzyliśmy środowisko, które zachęca do treści seksualnych”.
Na początku 2022 roku wewnętrzne dochodzenie TikToka w sprawie transmisji na żywo (LIVE), nazwane „Projektem Meramec”, ujawniło szokujące ustalenia. Setki tysięcy dzieci w wieku od 13 do 15 lat omijało minimalne ograniczenia wiekowe TikToka, prowadziło transmisje na żywo i otrzymywało niepokojące wiadomości od dorosłych. Projekt potwierdził, że transmisja na żywo (LIVE) „umożliwiała wykorzystywanie prowadzących transmisje na żywo” oraz że TikTok czerpał znaczne zyski z „transakcyjnego wręczania prezentów” obejmujących nagość i aktywność seksualną, a wszystko to dzięki wirtualnemu systemowi walutowemu TikToka.
Natomiast w Polsce udokumentowaliśmy nawet 7 czy 8 letnie dzieci swobodnie prowadzące transmisje live. Wielokrotnie zabezpieczaliśmy również materiały, które jednoznacznie wskazywały na próbę „złowienia” dzieci transmitujący na TikToku, przez drapieżców seksualnych, a gdy transmisje były do TikToka zgłaszane informowano nas o tym, że „transmisja nie narusza zasad społeczności i nie została przerwana”.
Wewnętrzne badanie z grudnia 2023 roku, przeprowadzone po artykule w Forbesie, udokumentowało to, co TikTok przyznaje jako „okrucieństwo” utrzymywania transmisji na żywo (LIVE) przy obecnych zagrożeniach dla nieletnich w aplikacji. Badanie wykazało, że funkcja transmisji na żywo (LIVE) charakteryzuje się następującymi cechami: „Większy odsetek użytkowników niepełnoletnich”, „Nieletni użytkownicy mają większe prawdopodobieństwo dostępu do treści na żywo o wysokim stopniu ryzyka niż użytkownicy dorośli”, W przypadku treści naruszających przepisy, takich jak nagość dla dorosłych i czynności seksualne oraz pokoje NA ŻYWO prowadzone przez osoby niepełnoletnie, liczba wyświetleń tych osób jest prawdopodobnie 2 razy wyższa niż w przypadku innych pokoi NA ŻYWO”, „Nieletnim użytkownikom brakuje świadomości konieczności samoobrony i częściej wchodzą w interakcję z ryzykownymi treściami NA ŻYWO”.
TikTok od dawna wie, że wirtualne prezenty są wykorzystywane jako drapieżna taktyka groomingu na żywo. TikTok przyznał wewnętrznie, że „sprawcy często stosują taktyki takie jak dawanie prezentów, pochlebstwa i obdarowywanie pieniędzmi, aby zdobyć zaufanie nieletnich”. Pisaliśmy z resztą o zjawisku w publikacji „Jak predatorzy łowią dzieci w przestrzeni cyfrowej”, tekst jest dostępny na naszym Patronite.
We wrześniu 2022 r. śledczy prokuratury generalnej odkrył, że „w ciągu kilku minut od przeglądania transmisji [NA ŻYWO]” pokazywano mu nieletnie dziewczęta dostarczające treści o charakterze seksualnym w zamian za pieniądze oraz młodych chłopców podszywających się pod dziewczęta w celu otrzymania prezentów za pomocą filtrów.
Podsumowując, krzywdzenie seksualne nieletnich występuje na TikToku przy całkowitej akceptacji moderacji jak i osób zarządzających. Nieskuteczne jest zgłaszanie transmisji na których dochodzi do krzywdzenia, monetyzuje się też krzywdę dzieci na niewyobrażalną skalę.
Grupa 5. Korzystanie z aplikacji przez osoby poniżej 13 roku życia
Chociaż TikTok, podobnie jak inne serwisy społecznościowe, wymaga minimalnego wieku 13 lat przy zakładaniu konta (i w USA i w Polsce) oraz wyższych limitów wiekowych dla niektórych funkcji (np. transmisje LIVE dla osób od 18 lat), korzystanie z serwisu przez osoby niepełnoletnie jest powszechne i firma o tym wie, a jej działania w zakresie egzekwowania tych limitów są ograniczone. TikTok deklaruje również, że oferuje użytkownikom skuteczne funkcje bezpieczeństwa. Jednak w briefingach jasno zaznaczono, że głównym celem TikToka jest utrzymanie użytkowników w grze i zaangażowanie ich jak najdłużej, co często odbywa się kosztem bezpieczeństwa dzieci. Według raportu „Internet Dzieci”, na platformie TikTok, mamy aktualnie prawie 1.5 miliona polskich dzieci w wieku 7-14 lat, spędzających dziennie kilka godzin na platformie.
Podobnie w wiadomości na czacie, w której omówiono funkcje rzekomo pomagające użytkownikom zarządzać czasem spędzanym przed ekranem, pracownik TikToka potwierdził, że celem firmy „nie jest zmniejszanie czasu spędzanego” w aplikacji TikTok, ale raczej ostateczne „przyczynienie się do dziennej liczby aktywnych użytkowników i retencji” użytkowników. TikTok promuje narzędzia do zarządzania czasem spędzanym przed ekranem dla młodych użytkowników, o których wiedzą, że są nieskuteczne. Na przykład, w wewnętrznym dokumencie ubiegającym się o zatwierdzenie panelu zarządzania czasem spędzanym przed ekranem stwierdzono, że „nie spodziewamy się znaczącego wpływu tej funkcji na czas spędzany przed ekranem, ponieważ służy ona jedynie zwiększeniu świadomości, a nie interwencji”. W rzeczywistości TikTok stwierdził, że panel czasu spędzanego przed ekranem nie miał wpływu na korzystanie z niego przez młodych użytkowników, ponieważ „osoby niepełnoletnie nie posiadają funkcji wykonawczych umożliwiających im kontrolowanie czasu spędzanego przed ekranem. Panel czasu spędzanego przed ekranem nie wydawał się mieć żadnego wpływu na korzystanie z niego przez osoby niepełnoletnie”.
W maju 2022 roku, po ukazaniu się krytycznego artykułu w Forbesie, TikTok podjął kroki w celu oceny „wartości” nieletnich prowadzących transmisje na żywo, zanim zdecydował się na wprowadzenie zmian w zabezpieczeniach funkcji, takich jak podniesienie minimalnego wieku z 16 do 18 lat. Według TikToka, 384 833 prowadzących miało od 16 do 17 lat i spędzili oni ponad siedem milionów minut na transmitowaniu siebie na żywo.
Mimo że TikTok wiedział, że na platformie jest „duża” liczba nieletnich prowadzących transmisje oraz że ci nieletni otrzymują problematyczne wiadomości od dorosłych użytkowników, poczekał sześć miesięcy zanim podniósł minimalny wiek użytkownika, aby móc prowadzić transmisje NA ŻYWO, z 16 do 18 lat, jednak podniesienie minimalnego wieku z 16 do 18 lat nie rozwiązało problemu. System TikToka ograniczający wiek jest nieskuteczny, a wiele dzieci nadal codziennie dołącza do transmisji na żywo. TikTok zrezygnował również z rozsądnych środków bezpieczeństwa, stawiając zyski ponad bezpieczeństwo, co pozwala na swobodny rozwój treści o charakterze seksualnym i innych nielegalnych działań. W rezultacie te działania nie tylko się utrzymały, ale wręcz eksplodowały, ponieważ transmisja na żywo stała się jeszcze bardziej popularna. W 2023 roku starszy dyrektor TikToka został zaalarmowany przez obrońców praw, którzy zauważyli wzrost liczby „nastolatków w sytuacjach o charakterze jawnie seksualnym podczas transmisji na żywo kontrolowanych przez osobę powyżej 18. roku życia, która pobiera opłaty od widzów, podczas gdy nastolatek wykonuje czynności o charakterze seksualnym”. Zwolennicy praw twierdzą, że zgłosili te transmisje za pośrednictwem wewnętrznych narzędzi TikToka do zgłaszania, ale TikTok uznał, że nie naruszają one jego zasad. Znajome, prawda?
TikTok zdaje sobie sprawę, że stosowane przez niego ograniczenia wiekowe są nieskuteczne, a moderacja transmisji na żywo jest nieskuteczna i niespójna, dlatego ukrywa te informacje przed użytkownikami i opinią publiczną. TikTok zdaje sobie sprawę, że dotyczy to szczególnie dzieci, przyznając: „Nieletni są bardziej ciekawscy i skłonni ignorować ostrzeżenia” oraz „Bez skutecznych metod weryfikacji wieku nieletni zazwyczaj po prostu kłamaliby na temat swojego wieku”. Biorąc pod uwagę, jak lukratywne dla TikToka są transmisje na żywo, firma powoli wdrażała środki bezpieczeństwa, a kiedy już to zrobiła, okazały się one w dużej mierze nieskuteczne w nadążaniu za rosnącą popularnością transmisji na żywo. Było to celowe, transmisje na żywo stanowiły „tak ważną część strategii aplikacji TikTok” , że pracownicy TikToka zdali sobie sprawę, że „nie wiedzieli”, czy mogą „rozsądnie oczekiwać zwiększenia ograniczeń dla transmisji na żywo”, nawet w lutym 2022 roku, i to nawet po uświadomieniu sobie, że „nieodpowiedzialne jest ze strony TikToka oczekiwanie, że użytkownicy będą korzystać z transmisji na żywo mądrze”. Innymi słowy, transmisje LIVE prowadzone przez dzieci, było zbyt dochodowe, aby ingerować w nie, nawet w celu ich ochrony.
Te zasady nie zapewniają odpowiedniej ochrony dzieciom, a ponadto nie są konsekwentnie stosowane. W 2020 roku TikTok wprowadził „wewnętrzny program” mający na celu „ochronę twórców i innych kont, które TikTok uznaje za wartościowe”. Program zawierał skróty do zasad, takie jak „opóźnione egzekwowanie”, „odroczone decyzje w sprawie zasad” lub „brak trwałego blokowania kont Elite+”, aby chronić popularnych użytkowników naruszających zasady TikToka. TikTok wdrożył tę zasadę „ukrywania się”, mimo że wiedział, że „większość kont Elite wydaje się naruszać zasady TikToka dotyczące treści o charakterze seksualnym”, a także inne naruszenia. Około 1400 nieletnich zostało uznanych za „twórców Elite”. W Polsce taką samą ochronę stosuje się wobec patostreamerów. Im popularniejszy i dochodowy, tym większy parasol ochronny się nad nim roztacza.
Na zakończenie, „wisienka na torcie”: TikTok nie ma prawdziwego systemu weryfikacji wieku użytkowników. Do 2019 roku platforma nawet nie pytała użytkowników o wiek podczas rejestracji kont. Zapytani, dlaczego tego nie zrobili, pomimo oczywistego faktu, że „wielu użytkowników, zwłaszcza tych najpopularniejszych, ma mniej niż 13 lat”, założyciel Zhu wyjaśnił, że „te dzieci i tak powiedzą, że mają ponad 13 lat”.
A zatem, wprowadzona w 2016 roku na rynki światowe chińska aplikacja TikTok, która powstała między innymi dzięki zakupowi i przekształceniu jej z aplikacji rozrywkowej Musical.ly, prawdziwy szczyt popularności osiągnęła w Polsce w okolicy 2020 roku za sprawą pandemii, bezdyskusyjnie krzywdzi dzieci zarówno amerykańskie, jak i Polskie czy też wszystkie inne, mieszkające w innych krajach, w których nie uregulowano platformy żadnymi aktami prawnymi. Co gorsza nawet tam, gdzie akty prawne wprowadzono, nie są one w żaden sposób przez platformę stosowane i skutecznie egzekwowane, a jedyną znaną nam konsekwencją takich działań było przejęcie jej przez Amerykanów, co właśnie nastąpiło, ale nie rozwiązało problemu przynajmniej nie do tej pory. Skala krzywdzenia dzieci na TikToku jest nieprawdopodobna, a w upublicznionych zeznaniach widzimy tylko ułamek procederu, który zapewne większości świadomych użytkowników, już w tej odtajnionej, minimalnej skali, nie mieści się w głowie.
Pod płaszczykiem aplikacji rozrywkowej, na której to można obejrzeć śmieszne kotki czy wziąć udział w sympatycznych trendach, kryje się zło odbierające zdrowie psychiczne i życie naszym dzieciom. Dziś też, jedynym skutecznym rozwiązaniem jest jej trwałe usunięcie lub decyzja o niezakładaniu w ogóle dziecku aplikacji TikTok. Nikt, kompletnie nikt poza zainteresowanym i świadomym rodzicem nie jest w stanie zapewnić dziecku bezpiecznej przestrzeni cyfrowej, w której to daje się dziecku nieograniczony dostęp do internetu, lub co gorsza dostępu do wątpliwej moralnie i etycznie, pozbawionej wszelkich skrupułów platformy jaką jest dziś TikTok. Te raporty i zaznania potwierdzają to, czym zespół KidsAlert niestrudzenie zajmuje się od początku istnienia, żałujemy tylko, że wiedza jaką dziś przekazujemy trafia póki co do dziesiątek tysięcy rodziców, a powinna do każdego z nich. Zachęcamy rodziców i opiekunów do wnikliwej analizy „korzyści” oraz szkód jakie może wywołać u dzieci przebywanie na platformie TikTok, zwłaszcza do analizy wszystkiego tego, co przeczytać mogliście w powyższym opracowaniu.
Dziękuję w imieniu zespołu KidsAlert za to, że jesteście z nami!
*Tekst powstał na podstawie tego artykułu.
Trwa ładowanie...