Con la finalidad de reducir las actitudes negativas en su red social, Twitter presentó esta semana el Safety Mode, un modelo con el cual se aplicará un bloqueo automático hacia los usuarios que muestren mensajes agresivos y ofensivos.
De acuerdo con El Financiero, Twitter informó que dicho producto utilizará tecnología automatizada para observar el contenido de los tuits y “la relación entre el autor y el que contesta el tuit” para determinar si se justifica un bloqueo.
Mediante su blog oficial, Twitter señaló que en caso de detectar que un usuario está “utilizando un lenguaje potencialmente dañino, como insultos o comentarios odiosos, o enviando respuestas o menciones repetitivas y no solicitadas”, automáticamente bloqueará al usuario.
En ese sentido, a red social informó que los bloqueos automáticos durarán un periodo de siete días.
Introducing Safety Mode. A new way to limit unwelcome interactions on Twitter. pic.twitter.com/xa5Ot2TVhF
— Twitter Safety (@TwitterSafety) September 1, 2021
El objetivo, de acuerdo con Twitter, es que estos bloqueos puedan detener “interacciones abrumadoras y no deseadas que pueden interrumpir” la experiencia de un usuario.
Twitter, al igual que Facebook e Instagram, ha emprendido una larga lucha para evitar el abuso en su plataforma y a su vez, tener una forma fácil de denuncia para aquellas publicaciones que se consideren ofensivas.
El Safety Mode se mantiene en etapa de prueba, pues Twitter señaló que se busca evitar un bloqueo por error.
Cualquier persona que use este modo de seguridad puede revisar qué cuentas se han bloqueado automáticamente por ellos y editar esa lista.