Universidad Veracruzana

Skip to main content

Noti_infosegura: El mal uso de la información personal de los usuarios y la censura son algunos de los lastres que Facebook está trabajando para proteger la privacidad de sus usuarios

Spam, desnudez y cuentas falsas, lo más vetado por Facebook

El mal uso de la información personal de los usuarios y la censura son algunos de los lastres que Facebook está intentando quitarse de encima para así ganarse una estrellita en el salón de la opinión pública.

Facebook se está portando bien. Después del escándalo sobre el uso de datos de usuarios de la plataforma con fines electorales que lo vinculó con la hoy extinta Cambridge Analytica, la red social desempolvó sus canales de comunicación para comenzar a ofrecer detalles sobre las acciones que está tomando con el fin de resolver el alud de problemas que salieron a flote durante la comparecencia de Mark Zuckerberg ante el Congreso: mal uso de la información personal de los usuarios y censura son algunos de los lastres que Facebook está intentando quitarse de encima para así ganarse una estrellita en el salón de la opinión pública.

Un ejemplo de esta nueva postura de Facebook es el seguimiento que la plataforma le está dando a cada una de las iniciativas que ha implementado para mejorar la forma en la que opera la red social.  Hace 21 días que hizo públicas sus Normas Comunitarias, una lista en la que revela los criterios que dice usar para permitir o restringir contenido y este martes, entrega el primer reporte de resultados sobre la aplicación de estos criterios para el último cuarto de 2017 y el primero de 2018.

El spam, las cuentas falsas y las imágenes de adultos desnudos y de actividades sexuales explícitas o implícitas son los contenidos sobre los que Facebook toma más acciones en sus procesos de revisión, pero no son los que afectan más a los usuarios de la red social, ya que la violencia gráfica tiene una prevalencia de entre 0.22 y 0.27%, lo que significa que de cada 10,000 usuarios, entre 22 y 27 vieron un contenido que entra en esta categoría.

El reporte analiza cuán frecuentes son las violaciones a las normas de Facebook; cuánto contenido amerita que se tomen medidas por violar los estándares de la compañía y cuánto contenido violatorio encuentra la red social antes de que sea reportado por un usuario. Abarca seis tipos de violaciones a los estándares de la plataforma, que incluyen la violencia gráfica, la desnudez y las actividades sexuales, la propaganda terrorista, el discurso de odio, el spam y las cuentas falsas.

Durante el periodo de análisis, Facebook tomó acciones en contra de más de 1,563 millones de contenidos considerados spam, contra 1,277 millones de cuentas falsas y contra más de 42 millones de contenidos que mostraban imágenes de desnudez o de acciones sexuales implícitas o explícitas. La red social aclaró que la mayoría de los 1,277 millones de cuentas falsas fueron eliminadas a los pocos segundos o minutos de que se crearon, por lo que no se incluyen en su conteo de usuarios activos mensuales (MAU, por su sigla en inglés), que actualmente es de 2,200 millones de usuarios.

Esta supresión de contenidos ha sido vista, incluso por legisladores estadounidenses como Marco Rubio, como una forma de censurar la libre expresión de los usuarios de Facebook. Pese a que la red social afirma en el reporte que entiende que “la desnudez se puede compartir por una variedad de razones” y que hace concesiones a sus estándares “donde el propósito es claro, como la educación para la salud o imágenes de la lactancia materna”, además de que permite “fotografías de pinturas, esculturas y otro arte del mundo real que muestra figuras desnudas”, no es sencillo olvidar la icónica fotografía de una niña vietnamita desnuda tras un ataque con napalm, el cuadro de Gustave Courbet El origen del mundo o la estatua de La Sirenita en Copenhage, tres obras de arte censuradas por los procesos de revisión de contenidos de Facebook.

De acuerdo con Alex Shultz y Gus Rosen, autores de este reporte, Facebook identifica las supuestas violaciones a sus normas a través de reportes de la comunidad, de detecciones hechas por el equipo de Facebook y de tecnología de Inteligencia Artificial. Cuando Facebook recibe el reporte de un usuario o de una solución de IA sobre un contenido, este es revisado y analizado tomando en cuenta variables como el lenguaje y la cultura y si se determina que se violan las normas de la red social se procede a “eliminar el contenido, deshabilitar la cuenta o cubrir el contenido con una advertencia”, según el documento.

Los autores advierten que las métricas del documento se encuentran en desarrollo, que las comparaciones históricas pueden ser imperfectas y que a medida que Facebook mejore sus metodologías, la forma en la que se define y mide el cumplimiento de estos estándares puede cambiar.

rodrigo.riquelme@eleconomista.mx

 

Fuente: https://www.eleconomista.com.mx/

Fecha de consulta: 16 mayo 2018

Enlaces de pie de página

Ubicación

Rectoría.
Lomas del Estadio SN.
Col. Zona Universitara.
Xalapa, Veracruz.

Redes sociales

Transparencia

Código de ética

Última actualización

Fecha: 24 abril, 2024 Responsable: Coordinación de Gestión de Incidentes de Ciberseguridad Contacto: contactocsirt@uv.mx