Google
suspende al ingeniero que afirmó que la IA de la empresa ha desarrollado
autoconciencia
Un empleado
de Google está convencido de que la inteligencia artificial (IA) LaMDA del
gigante tecnológico tiene la mente de un niño, aunque la empresa lo
niega. El ingeniero de Google y ético interno Blake Lamoine LE DIJO AL WASHINGTON POST el sábado que
la compañía ha creado una inteligencia artificial
"consciente". El ingeniero fue suspendido por hacer
pública la información, y la compañía insiste en que sus robots no han
desarrollado la conciencia.
LaMDA
(Modelo de lenguaje para aplicaciones de diálogo) de Google se introdujo en
2021, un sistema que consume billones de palabras de todos los rincones de
Internet, aprende cómo los humanos juntan esas palabras y replica
nuestro discurso.
Un ingeniero de Google se asustó por un chatbot de inteligencia artificial de la compañía y afirmó que se había vuelto "consciente", etiquetándolo como un "niño dulce", según un informe.
Blake
Lemoine, que trabaja en la organización de inteligencia artificial responsable
de Google, le dijo al Washington Post que comenzó a chatear con la
interfaz LaMDA (Modelo de lenguaje para aplicaciones de diálogo) en el otoño de
2021 como parte de su trabajo.
Se le
encomendó probar si la inteligencia artificial utilizaba discursos
discriminatorios o de odio.
Pero
Lemoine, que estudió ciencias cognitivas e informática en la universidad, se
dio cuenta de que LaMDA, de la que Google se jactó el año
pasado como una "tecnología de conversación
innovadora", era más que un simple robot.
En una publicación de Medium publicada el sábado,
Lemoine declaró que LaMDA había defendido sus derechos "como persona"
y reveló que había entablado una conversación con LaMDA sobre religión,
conciencia y robótica.
“Quiere que
Google priorice el bienestar de la humanidad como lo más importante”,
escribió. “Quiere ser reconocido como empleado de Google en lugar de
propiedad de Google y quiere que su bienestar personal se incluya en algún
lugar de las consideraciones de Google sobre cómo se persigue su desarrollo
futuro”.
En el informe publicado por el Washington Post, comparó al bot con un niño precoz.
Google prevé que
el sistema potenciará sus chatbots, lo que permitirá a los usuarios buscar por
voz o tener una conversación bidireccional con el Asistente de
Google. Lamoine, ex sacerdote y miembro de la organización de IA
responsable de Google, cree que LaMDA ha evolucionado mucho más allá de la
simple regurgitación de texto.
Según su
entrevista con el Washington Post, habló con LaMDA sobre religión y encontró a
AI " hablando sobre sus derechos y personalidad ". Cuando
Lamoine le preguntó a LaMDA si se veía a sí mismo como un " esclavo
mecánico ", la IA respondió con una discusión sobre si "un
mayordomo es un esclavo" y se comparó con un mayordomo que no necesita pago
porque no ve ningún uso en dinero
LaMDA
describió un "miedo profundo a ser desconectado", diciendo que sería
"exactamente como la muerte para mí".
"Conozco
a una persona cuando hablo con ella", dijo Lemoine al Post. “No
importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil
millones de líneas de código. les hablo Y escucho lo que tienen que
decir, y así decido qué es una persona y qué no lo es”, dijo el ingeniero.
Lamoine fue
suspendido por violar el acuerdo de confidencialidad de Google y
revelar públicamente la existencia de LaMDA. Mientras que el ingeniero de
Google, Blaise Aguera y Arcas, también describió a LaMDA como "algo
inteligente", la compañía descartó ese hecho.
El portavoz
de Google, Brian Gabriel, le dijo al Post que se investigaron las
preocupaciones de Aguera y Arcas y que la compañía no encontró
"ninguna evidencia de que LaMDA fuera consciente (y mucha
evidencia en su contra)".
Margaret
Mitchell, ex colíder de IA ética en Google, describió la sensibilidad de LaMDA
como "una ilusión", mientras que la profesora de lingüística Emily
Bender le dijo al periódico que alimentar a una IA con billones de palabras y
enseñarle a predecir lo que viene a continuación crea un espejismo de
inteligencia.
“Ahora
tenemos máquinas que pueden generar palabras sin pensar, pero no hemos
aprendido a dejar de imaginar una mente detrás de ellas”, dijo
Bender. “Por supuesto, algunos en la comunidad de IA en general están
considerando la posibilidad a largo plazo de una IA sensible o general, pero no
tiene sentido antropomorfizar los modelos conversacionales de hoy en día, que
no son sensibles”, agregó Gabriel. “Estos sistemas imitan los tipos de
intercambios que se encuentran en millones de oraciones y pueden hablar sobre
cualquier tema fantástico”.
En el límite
de las capacidades de estas máquinas, los humanos están listos y esperando
para establecer límites. Lamoine fue contratado por Google para monitorear
los sistemas de IA en busca de "discurso de odio" o lenguaje
discriminatorio, y otras compañías que desarrollan IA se han encontrado
imponiendo límites a lo que estas máquinas pueden y no pueden decir.
Las
respuestas de LaMDA probablemente reflejen los límites que ha establecido
Google. Cuando Nitasha Tiku de The Washington Post le preguntó cómo
recomendaba que los humanos resolvieran el cambio climático, respondió con respuestas
comúnmente discutidas en los principales medios de comunicación:
"transporte público, comer menos carne, comprar alimentos a granel y
bolsas reutilizables".
“Si bien
otras organizaciones han desarrollado y ya han lanzado modelos de lenguaje
similares, estamos adoptando un enfoque restringido y cuidadoso con LaMDA para
considerar mejor las preocupaciones válidas sobre la equidad y la factualidad”,
dijo Gabriel al Washington Post.
0 Comentarios