LA F.E.M PROPONE IA PARA AUTOMATIZAR LA CENSURA



EL FORO ECONÓMICO MUNDIAL PROPONE IA PARA AUTOMATIZAR LA CENSURA DEL "DISCURSO DE ODIO" Y LA "DESINFORMACIÓN"

 

Censura contra lo que llama el "mundo oscuro de los daños en línea"

 

Escrito original Por Didi Rankovic

 

El Foro Económico Mundial (WEF, por sus siglas en inglés) continúa tocando el tambor de la necesidad de fusionar de alguna manera la "IA" y los humanos, como una supuesta panacea para prácticamente cualquier mal que aqueje a la sociedad y la economía.

Nunca es una apuesta segura si el portavoz de esta élite con sede en Davos presenta sus extravagantes "soluciones" y "propuestas" como una forma de reforzar las narrativas existentes o introducir nuevas; o simplemente para parecer ocupado y ganarse el sustento de quienes lo financian.

Sin embargo, aquí estamos, con el Foro Económico Mundial dirigiendo su atención hacia lo que aparentemente es el tema candente en la vida de todos en este momento.

No, no es la inflación galopante, los costos de energía e incluso la seguridad alimentaria en muchas partes del mundo. Por lo dedicada que está la organización a la globalización, es extrañamente sorda a lo que realmente está sucediendo en todo el mundo.

Y mientras las personas luchan por pagar sus cuentas y temen el próximo invierno, el Foro Económico Mundial habla sin darse cuenta del "mundo oscuro de los daños en línea".

El grupo parece estar trabajando arduamente para cuadrar el círculo de la lucha contra los trolls de Internet, es decir, para resolver el problema ampliamente y vagamente definido del "abuso en línea". Es de lo que esperarías que supuestamente se tratara: "abuso infantil, desinformación, extremismo y fraude".

Sin embargo, una vez que un lector se abre paso entre las malas hierbas de las cortinas de humo verbales y narrativas, la gran conclusión del artículo publicado en el sitio web del grupo es que ni los censores humanos ni la censura resultante de la "IA" (en realidad, solo los algoritmos de aprendizaje automático) son suficientes. más tiempo.

“Al combinar de manera única el poder de la tecnología innovadora, la recopilación de inteligencia fuera de la plataforma y la destreza de los expertos en la materia que entienden cómo operan los actores de amenazas, la detección escalada del abuso en línea puede alcanzar una precisión casi perfecta”, dice el WEF.

Pero, ¿qué se supone que significa esto?

En algún punto hacia el final, el Foro Económico Mundial finalmente lo escupe (pero spoiler: todavía no tiene mucho sentido): en lugar de confiar en lo que se refiere de manera continua y errónea a lo largo del artículo como "IA", el WEF dice que está proponiendo "un nuevo marco: en lugar de confiar en la IA para detectar a escala y en humanos para revisar los casos extremos, un enfoque basado en la inteligencia es crucial".

Vale la pena citar toda la ensalada de palabras de la burbuja tecnológica que se supone que es el argumento de venta del artículo:

“Al llevar la inteligencia fuera de la plataforma, multilingüe y curada por humanos a los conjuntos de aprendizaje, la IA podrá detectar abusos novedosos y matizados a escala, antes de que lleguen a las plataformas principales. Complementar esta detección automatizada más inteligente con la experiencia humana para revisar casos extremos e identificar falsos positivos y negativos y luego volver a introducir esos hallazgos en conjuntos de entrenamiento nos permitirá crear IA con inteligencia humana incorporada”.

De esta manera, "los equipos de confianza y seguridad pueden detener el aumento de amenazas en línea antes de que lleguen a los usuarios", escribe el WEF.

Finalmente, uno puede comenzar a discernir el argumento aquí, una vez convertido en formato "legible por humanos", como simplemente presionar a las redes sociales para que comiencen a moverse hacia la "censura preventiva".

Y si eso es cierto, qué argumento es.

Publicar un comentario

0 Comentarios