Ekstremiści rekrutują młodzież przez gry. Naukowcy ostrzegają przed nowym zagrożeniem

Fot. Unsplash.
Fot. Unsplash.

Gry komputerowe i ich społeczności online, takie jak Discord, Twitch czy Steam, stają się nowym polem rekrutacji dla grup ekstremistycznych, ostrzegają naukowcy z Anglia Ruskin University w badaniu opublikowanym w „Frontiers in Psychology”. Choć same gry pozostają rozrywką, platformy komunikacyjne wokół nich są wykorzystywane do szerzenia radykalnych ideologii, takich jak biała supremacja, neonazizm czy mizoginia, szczególnie wśród młodych użytkowników.

Naukowcy z Anglia Ruskin University, w badaniu opublikowanym w „Frontiers in Psychology” w 2025 roku, alarmują, że platformy związane z grami komputerowymi stały się nowym terenem działań grup ekstremistycznych. Chociaż same gry, takie jak „Call of Duty” czy „Minecraft”, pozostają przede wszystkim formą rozrywki, środowiska komunikacyjne wokół nich – czaty, fora, grupy na Discordzie czy transmisje na Twitchu – przekształcają się w przestrzenie rekrutacji i szerzenia radykalnych ideologii. Szczególnie narażeni są młodzi użytkownicy, którzy spędzają w tych społecznościach wiele godzin dziennie.

Badanie podkreśla, że gry same w sobie rzadko zawierają treści ekstremistyczne, ale ich interaktywny charakter i możliwość budowania relacji w społecznościach online tworzą idealne warunki do manipulacji.

– To nie gry są problemem, lecz sposób, w jaki ich środowiska są wykorzystywane do nawiązywania kontaktów i stopniowego wciągania użytkowników w szkodliwe ideologie – zauważa dr Claudia Carvalho, współautorka badania. Zjawisko to jest szczególnie niepokojące w kontekście rosnącej liczby młodych graczy, którzy, według raportu Newzoo z 2024 roku, stanowią 60% globalnej społeczności gamingowej, czyli ponad 2 miliardy osób.

Discord, Twitch, Steam – furtki do ekstremizmu

Badacze wskazują, że platformy komunikacyjne, takie jak Discord, Twitch, Steam czy Roblox, są szczególnie podatne na wykorzystywanie przez grupy ekstremistyczne. To właśnie tam użytkownicy wchodzą w bezpośredni kontakt z rekruterami, którzy wykorzystują czaty głosowe, prywatne serwery i transmisje na żywo do budowania zaufania i szerzenia swoich ideologii. Gry militarne oraz tytuły promujące hipermęskość, np. survivalowe „Rust” czy „Escape from Tarkov”, tworzą naturalne środowisko do nawiązywania relacji, które z czasem przeradzają się w działania rekrutacyjne.

Na przykład Discord, popularny wśród graczy komunikator z ponad 150 milionami aktywnych użytkowników miesięcznie w 2025 roku, umożliwia tworzenie prywatnych serwerów, gdzie moderacja jest minimalna lub nie istnieje. Twitch, z kolei, stał się miejscem transmisji nie tylko rozgrywek, ale także propagandowych treści, które przyciągają widzów pod pozorem żartów czy memów. Steam, jako największa platforma dystrybucji gier, oferuje fora i grupy dyskusyjne, które często stają się wylęgarnią toksycznych ideologii, jeśli nie są odpowiednio nadzorowane.

Jak działa radykalizacja online?

Naukowcy opisują mechanizm „funnelingu” (ang. funnel – lejek), czyli celowego przenoszenia graczy z dobrze moderowanych platform, takich jak Facebook, Instagram czy YouTube, na mniej kontrolowane kanały, takie jak prywatne serwery Discord, grupy na Telegramie czy fora na Steamie. Proces ten zaczyna się od niewinnych treści, takich jak memy, żarty czy komentarze z ukrytą ideologią, które stopniowo prowadzą do kontaktu z coraz bardziej ekstremalnymi przekazami.

Szczególnie narażona jest najmłodsza grupa użytkowników, w wieku 12–18 lat, którzy są bardziej podatni na manipulację ze względu na brak doświadczenia i potrzebę przynależności. Rekruterzy wykorzystują ich zainteresowania, takie jak gry czy popkultura, by budować relacje, a następnie wprowadzać treści polityczne lub ideologiczne. Proces ten jest trudny do wykrycia, ponieważ często odbywa się w prywatnych kanałach, poza zasięgiem standardowych narzędzi moderacyjnych. Według raportu Anti-Defamation League z 2024 roku, 1 na 5 młodych graczy w USA zetknął się z treściami ekstremistycznymi w środowiskach gamingowych, co pokazuje skalę problemu.

Jakie treści krążą w sieci?

Badanie Anglia Ruskin University wskazuje, że najczęściej spotykane treści ekstremistyczne w środowiskach gamingowych to ideologie skrajnej prawicy, w tym biała supremacja, neonazizm, antysemityzm, mizoginia, homofobia, rasizm oraz teorie spiskowe, takie jak QAnon czy negowanie pandemii COVID-19. Pojawiają się również treści gloryfikujące przemoc, np. szkolne strzelaniny, które są przedstawiane jako „bohaterskie” lub „rewolucyjne” akty.

Przykłady rzeczywistych incydentów potwierdzają zagrożenie. W 2022 roku sprawca ataku w Buffalo, który zabił 10 osób w supermarkecie, planował zamach na serwerze Discord, transmitując swoje działania na Twitchu. W 2017 roku w Charlottesville uczestnicy marszu białych suprematystów koordynowali działania na forach gamingowych. Podobnie w 2019 roku w Halle w Niemczech napastnik transmitował atak na synagogę na Twitchu, a w 2021 roku szturm na Kapitol w Waszyngtonie był częściowo organizowany przez grupy na Discordzie. Te przypadki pokazują, że środowiska gamingowe nie są jedynie miejscem teoretycznych dyskusji, ale mogą prowadzić do realnych aktów przemocy.

Moderatorzy są przeciążeni. SI nie nadąża za kodami i memami

Walka z ekstremizmem w środowiskach gamingowych jest utrudniona przez przeciążenie moderatorów i ograniczenia technologiczne. Moderatorzy platform, takich jak Discord czy Twitch, skarżą się na brak wystarczającego wsparcia, niewystarczające narzędzia oraz ogromną ilość treści do przeglądania. „Moderowanie serwerów z tysiącami użytkowników to jak szukanie igły w stogu siana” – mówi anonimowy moderator cytowany w badaniu. Wiele platform polega na wolontariuszach lub niedofinansowanych zespołach, co prowadzi do opóźnień w usuwaniu szkodliwych treści.

Sztuczna inteligencja (SI), stosowana do wykrywania naruszeń, nie radzi sobie z rozpoznawaniem ironii, memów, aluzji czy kodów używanych przez ekstremistów, takich jak „88” (symbol neonazizmu) czy „based” (oznaczające aprobatę dla skrajnych poglądów). W rezultacie wiele szkodliwych materiałów, mimo niezgodności z regulaminami platform, pozostaje niezauważonych. Według raportu Center for Countering Digital Hate z 2024 roku, 84% zgłoszonych treści ekstremistycznych na Discordzie nie zostało usuniętych w ciągu 24 godzin, co pokazuje skalę problemu.

Źródło: PAP

Podłącz się do źródła najważniejszych informacji z rynku energii i przemysłu