Ir al contenido

Biblioteca de la Universidad Complutense de Madrid

Martes, 25 de enero de 2022

Inicio | ¿Quiénes somos? | Editar mi portal

Facebook afirma que su IA redujo el odio en un 50%, a pesar de los documentos internos que destacan los fallos

Los informes condenatorios sobre la ineficacia de la IA de Facebook para contrarrestar la incitación al odio llevaron a la empresa a publicar un mensaje en sentido contrario, pero los propios documentos internos de la empresa ponen de manifiesto graves fallos.

Últimamente, Facebook ha pasado una época especialmente dura, con una serie de informes del Wall Street Journal en los que se afirma que la empresa sabe que "sus plataformas están plagadas de fallos que causan daño" y que "a pesar de las audiencias del Congreso, de sus propias promesas y de las numerosas denuncias de los medios de comunicación, la empresa no los ha solucionado".

 

Los informes condenatorios sobre la ineficacia de la IA de Facebook para contrarrestar la incitación al odio llevaron a la empresa a publicar un mensaje en sentido contrario, pero los propios documentos internos de la empresa ponen de manifiesto graves fallos.

Últimamente, Facebook ha pasado una época especialmente dura, con una serie de informes del Wall Street Journal en los que se afirma que la empresa sabe que "sus plataformas están plagadas de fallos que causan daño" y que "a pesar de las audiencias del Congreso, de sus propias promesas y de las numerosas denuncias de los medios de comunicación, la empresa no los ha solucionado".

Algunas de las acusaciones son

Un cambio de algoritmo convirtió a Facebook en un lugar "más molesto" y el director general Mark Zuckerberg se resistió a las correcciones sugeridas porque "llevarían a la gente a interactuar menos con Facebook"
Los empleados señalan a los traficantes de personas, a los cárteles de la droga y a los vendedores de órganos, entre otros, pero la respuesta es "inadecuada o nula".
Las herramientas de Facebook se utilizaron para sembrar dudas sobre la gravedad de la amenaza de Covid-19 y la seguridad de las vacunas
Los propios ingenieros de la empresa tienen dudas sobre la afirmación pública de Facebook de que la IA limpiará la plataforma.
Facebook sabe que Instagram es especialmente tóxico para las adolescentes
Una "élite secreta" está exenta de las normas
Los informes proceden principalmente de la denunciante Frances Haugen, que obtuvo "decenas de miles" de páginas de documentos de Facebook, planea testificar ante el Congreso y ha presentado al menos ocho quejas ante la SEC en las que afirma que Facebook mintió a los accionistas sobre sus propios productos.

Esto hace que te preguntes si el ex viceprimer ministro británico Nick Clegg sabía de qué iba a encargarse cuando se convirtió en vicepresidente de Asuntos Globales y Comunicaciones de Facebook.

Durante el fin de semana, Clegg publicó una entrada en su blog, pero en su lugar optó por centrarse en el plan de Facebook de contratar a 10.000 europeos para ayudar a construir su visión del metaverso, un anuncio sospechosamente programado que muchos creen que tenía como objetivo contrarrestar las noticias negativas.

Sin embargo, Facebook no evitó los informes de los medios de comunicación. Guy Rosen, vicepresidente de Integridad de Facebook, también publicó una entrada en su blog durante el fin de semana titulada La prevalencia del discurso de odio ha descendido casi un 50% en Facebook.

Según la publicación de Facebook, la prevalencia del discurso de odio ha descendido un 50% en los últimos tres trimestres.Cuando la empresa comenzó a informar sobre las métricas de la incitación al odio, sólo el 23,6 por ciento de los contenidos eliminados eran detectados proactivamente por sus sistemas. Facebook afirma que esa cifra es ahora superior al 97 por ciento y que ahora sólo hay cinco visualizaciones de discurso de odio por cada 10.000 visualizaciones de contenido en Facebook.

"Los datos extraídos de los documentos filtrados se están utilizando para crear una narrativa de que la tecnología que utilizamos para luchar contra la incitación al odio es inadecuada y que tergiversamos deliberadamente nuestros progresos", dijo Rosen. "Esto no es cierto".

Uno de los informes descubrió que la IA de Facebook no podía identificar los vídeos de tiroteos en primera persona, los desplantes racistas y no podía separar las peleas de gallos de los accidentes de tráfico en un incidente concreto. Haugen afirma que la empresa sólo actúa en el 3-5% de los contenidos de odio y en el 0,6% de los de violencia e incitación.

En la última revelación del WSJ publicada el domingo, los empleados de Facebook dijeron al medio que no creen que la empresa sea capaz de filtrar el contenido ofensivo. Los empleados afirman que Facebook pasó a utilizar en gran medida la aplicación de la IA de las normas de la plataforma hace unos dos años, lo que sirvió para inflar el aparente éxito de su tecnología de moderación en las estadísticas públicas.

Clegg ha calificado los informes del WSJ de "tergiversaciones deliberadas" que utilizan citas de material filtrado para crear "una visión deliberadamente sesgada de los hechos más amplios".

Pocas personas subestiman el reto que supone para una plataforma como Facebook atrapar el contenido odioso y la desinformación entre miles de millones de usuarios -y hacerlo de una manera que no reprima la libertad de expresión-, pero la empresa no parece estar ayudándose a sí misma al prometer en exceso lo que pueden hacer sus sistemas de IA y, según se informa, incluso ignorar deliberadamente las soluciones a problemas conocidos por temor a que reduzcan la participación.

Fuente:

bytespider.eu

Género al que pertenece la obra: Periodismo literario
Bookmark and Share

Comentarios - 0

No hay comentarios.


Escritores complutenses 2.0. es un proyecto del Vicerrectorado de Innovación de la Universidad Complutense de Madrid
Sugerencias