MetaNeuroPlanet

Cargando...

MetaNeuroPlanet

Registro

Social Media - 21 de agosto de 2022

Twitter está desarrollando una nueva opción de ‘filtro de respuesta’ para dar a los usuarios más control sobre su experiencia de tuits


No es ningún secreto que Twitter puede ser una plataforma cruel e implacable para aquellos que tuitean algo incorrecto, sea lo que sea. Algunos usan esto para su beneficio, con muchas personalidades de los medios y políticos que ahora publican comentarios divisivos como un medio para impulsar su propia presencia y permanecer en la mente. Pero para otros, la reacción negativa de los tweets puede volverse abrumadora rápidamente, razón por la cual Twitter ha estado trabajando para brindar más formas para que los usuarios controlar su experiencia en la aplicacióny limitar las interacciones negativas cuando sea posible.

Y podría estar cerca de lanzar otro elemento nuevo en este frente.

Filtro de respuesta de Twitter

Como puede ver en este ejemplo, publicado por el investigador de la aplicación Jane Manchun WongActualmente, Twitter está desarrollando una nueva opción de ‘filtro de respuesta’, que permitiría a los usuarios reducir su exposición a tuits que incluyan ‘lenguaje potencialmente dañino u ofensivo’ identificado por los sistemas de detección de Twitter.

Como se indica en la descripción, el filtro solo evitará que veas esas respuestas, por lo que otros aún podrán ver todas las respuestas a tus tweets. Pero podría ser otra forma de evitar la atención no deseada en la aplicación, lo que puede hacer que sea una experiencia más agradable para aquellos que simplemente han tenido suficientes cuentas aleatorias que les envían respuestas basura.

El sistema presumiblemente utilizaría los mismos algoritmos de detección que el de Twitter. advertencias de respuesta ofensivaque relanzó en febrero del año pasadoluego de archivar el proyecto durante las elecciones estadounidenses de 2020.

Mensaje de advertencia de Twitter

Twitter dice que estas indicaciones han demostrado su eficacia, ya que los usuarios optaron por cambiar o eliminar sus respuestas en el 30 % de los casos en los que se mostraron estas alertas.

Eso sugiere que muchos usuarios de Twitter no buscan ofender o molestar intencionalmente a otros con sus respuestas, incluso una simple ventana emergente como esta tiene un efecto potencialmente significativo en el discurso de la plataforma y mejora la participación a través del tweet.

Por supuesto, eso también significa que el 70 % de las personas no estuvo de acuerdo con la evaluación automática de Twitter de sus comentarios y/o no les preocupa ofender a las personas. Lo cual suena cierto: como se señaló, Twitter aún puede ser una plataforma bastante implacable para aquellos que están en el centro de atención (el actor Tom Holland anunció recientemente que está tomando un descanso de la aplicación debido a que esmuy perjudicial para mi estado mental‘). Pero aun así, una reducción del 30 % en la toxicidad potencial de los tweets es significativa, y esta nueva opción, que probablemente utilizaría los mismos identificadores y algoritmos, podría agregarse a eso de otra manera.

Como tal, es, al menos, un experimento digno de Twitter, que brinda aún más formas para que los usuarios controlen su experiencia en la aplicación.

Todavía no hay noticias sobre un lanzamiento oficial, pero según las últimas ejemplos publicados por Wongparece que podría llegar pronto.





Source link