EL FORO ECONÓMICO MUNDIAL PROPONE IA PARA AUTOMATIZAR LA CENSURA DEL "DISCURSO DE ODIO" Y LA "DESINFORMACIÓN"
Censura
contra lo que llama el "mundo oscuro de los daños en línea"
Escrito original
Por Didi Rankovic
El Foro
Económico Mundial (WEF, por sus siglas en inglés) continúa tocando el tambor de
la necesidad de fusionar de alguna manera la "IA" y los humanos, como
una supuesta panacea para prácticamente cualquier mal que aqueje a la sociedad
y la economía.
Nunca es una
apuesta segura si el portavoz de esta élite con sede en Davos presenta sus
extravagantes "soluciones" y "propuestas" como una forma de
reforzar las narrativas existentes o introducir nuevas; o simplemente para
parecer ocupado y ganarse el sustento de quienes lo financian.
Sin embargo,
aquí estamos, con el Foro Económico Mundial dirigiendo su atención hacia lo que
aparentemente es el tema candente en la vida de todos en este momento.
No, no es la
inflación galopante, los costos de energía e incluso la seguridad alimentaria
en muchas partes del mundo. Por lo dedicada que está la organización a la
globalización, es extrañamente sorda a lo que realmente está sucediendo en todo
el mundo.
Y mientras
las personas luchan por pagar sus cuentas y temen el próximo invierno, el Foro
Económico Mundial habla sin darse cuenta del "mundo oscuro de los daños en
línea".
El grupo
parece estar trabajando arduamente para cuadrar el círculo de la lucha contra
los trolls de Internet, es decir, para resolver el problema ampliamente y
vagamente definido del "abuso en línea". Es de lo que esperarías
que supuestamente se tratara: "abuso infantil, desinformación, extremismo
y fraude".
Sin embargo,
una vez que un lector se abre paso entre las malas hierbas de las cortinas de
humo verbales y narrativas, la gran conclusión del artículo publicado en el
sitio web del grupo es que ni los censores humanos ni la censura resultante de
la "IA" (en realidad, solo los algoritmos de aprendizaje automático)
son suficientes. más tiempo.
“Al combinar
de manera única el poder de la tecnología innovadora, la recopilación de
inteligencia fuera de la plataforma y la destreza de los expertos en la materia
que entienden cómo operan los actores de amenazas, la detección escalada del
abuso en línea puede alcanzar una precisión casi perfecta”, dice el WEF.
Pero, ¿qué
se supone que significa esto?
En algún
punto hacia el final, el Foro Económico Mundial finalmente lo escupe (pero
spoiler: todavía no tiene mucho sentido): en lugar de confiar en lo que se
refiere de manera continua y errónea a lo largo del artículo como
"IA", el WEF dice que está proponiendo "un nuevo marco: en lugar
de confiar en la IA para detectar a escala y en humanos para revisar los casos
extremos, un enfoque basado en la inteligencia es crucial".
Vale la pena
citar toda la ensalada de palabras de la burbuja tecnológica que se supone que
es el argumento de venta del artículo:
“Al llevar
la inteligencia fuera de la plataforma, multilingüe y curada por humanos a los
conjuntos de aprendizaje, la IA podrá detectar abusos novedosos y matizados a
escala, antes de que lleguen a las plataformas principales. Complementar
esta detección automatizada más inteligente con la experiencia humana para
revisar casos extremos e identificar falsos positivos y negativos y luego
volver a introducir esos hallazgos en conjuntos de entrenamiento nos permitirá
crear IA con inteligencia humana incorporada”.
De esta
manera, "los equipos de confianza y seguridad pueden detener el aumento de
amenazas en línea antes de que lleguen a los usuarios", escribe el WEF.
Finalmente,
uno puede comenzar a discernir el argumento aquí, una vez convertido en formato
"legible por humanos", como simplemente presionar a las redes
sociales para que comiencen a moverse hacia la "censura preventiva".
Y si eso es cierto, qué argumento es.
0 Comentarios