I risultati di una ricerca sulle chellenge online, commissionata da TikTok, ha rilevato che il 14% sono pericolose, il 3% molto pericolose.
Mentre quasi la metà di esse, il 48%, sono percepite dagli adolescenti come sicure e sono definite divertenti o spensierate; il 32% è stato associato a un certo rischio, ma sempre considerandole sicure; il 14% invece è stato descritto come rischioso e pericoloso e il 3% delle challenge online è stato definito molto pericoloso.
Sono in sintesi i risultati di una ricerca sulle sfide online pericolose commissionata da TikTok e che è stata presentata in un incontro introdotto da Alexandra Evans, Head of Safety Public Policy, Europe.
Secondo lo studio appena lo 0,3% degli intervistati ha dichiarato di aver preso parte a una challenge che considerava pericolosa.
Per sfide online pericolose, è stato precisato, si intende quelle che comportano un rischio significativo di danni fisici, mentali o emotivi. Tra queste, figura una sottocategoria di sfide definite ‘sfide bufala’, cioè false sfide legate a suicidio/autolesionismo, come Galindo/ Blue Whale e Momo.
Le sfide bufala “propagano un’informazione falsa, cioè che esista un soggetto malintenzionato che spinge gli utenti (di solito bambini) a svolgere una serie di attività dannose che si intensificano, terminando con atti di autolesionismo o suicidio. Queste sono spesso espresse sotto forma di ‘sfida’. In realtà queste ‘sfide bufala’ – sottolinea lo studio – sono storie costruite per diffondere e perpetuare la paura e l’ansia senza alcun elemento autentico di partecipazione o di sfida”.
Il progetto globale sostenuto da TikTok si è basato tra l’altro su un’indagine su oltre 10 mila persone in Argentina, Australia, Brasile, Germania, Italia, Indonesia, Messico, Regno Unito, Usa e Vietnam. Uno tra i principali riscontri del report è che adolescenti, genitori ed educatori sentono la necessità di una migliore informazione sulle challenge e i contenuti ingannevoli e per questo TikTok ha sviluppato nuove risorse dedicate per il nostro Centro Sicurezza.
E’ stato anche reso più efficace il linguaggio utilizzato nei messaggi di avviso visualizzati dagli utenti quando provano a cercare contenuti relativi a sfide pericolose o bufale. In particolare, un nuovo messaggio incoraggia i membri della community a visitare il Centro Sicurezza per saperne di più e, nel caso di bufale associate ai suicidi o all’autolesionismo, da oggi verranno visualizzate ulteriori risorse anche nella ricerca.
Articolo pubblicato il giorno 17 Novembre 2021 - 09:28