SUSPENDEN AL INGENIERO QUE DIJO QUE IA DE GOOGLE HA DESARROLLADO AUTOCONCIENCIA



Google suspende al ingeniero que afirmó que la IA de la empresa ha desarrollado autoconciencia

 

Un empleado de Google está convencido de que la inteligencia artificial (IA) LaMDA del gigante tecnológico tiene la mente de un niño, aunque la empresa lo niega. El ingeniero de Google y ético interno Blake Lamoine  LE DIJO  AL WASHINGTON POST el sábado que la compañía ha creado una inteligencia artificial "consciente". El ingeniero fue suspendido por hacer pública la información, y la compañía insiste en que sus robots no han desarrollado la conciencia.

 

 

LaMDA (Modelo de lenguaje para aplicaciones de diálogo) de Google se introdujo en 2021, un sistema que consume billones de palabras de todos los rincones de Internet, aprende cómo los humanos juntan esas palabras y replica nuestro discurso.


Un ingeniero de Google se asustó por un chatbot de inteligencia artificial de la compañía y afirmó que se había vuelto "consciente", etiquetándolo como un "niño dulce", según un informe.

 

Blake Lemoine, que trabaja en la organización de inteligencia artificial responsable de Google, le dijo al  Washington Post  que comenzó a chatear con la interfaz LaMDA (Modelo de lenguaje para aplicaciones de diálogo) en el otoño de 2021 como parte de su trabajo.

 

Se le encomendó probar si la inteligencia artificial utilizaba discursos discriminatorios o de odio.

 

Pero Lemoine, que estudió ciencias cognitivas e informática en la universidad, se dio cuenta de que LaMDA, de la que Google  se jactó el año pasado  como una "tecnología de conversación innovadora", era más que un simple robot.

 

En  una publicación de Medium  publicada el sábado, Lemoine declaró que LaMDA había defendido sus derechos "como persona" y reveló que había entablado una conversación con LaMDA sobre religión, conciencia y robótica.

 

“Quiere que Google priorice el bienestar de la humanidad como lo más importante”, escribió. “Quiere ser reconocido como empleado de Google en lugar de propiedad de Google y quiere que su bienestar personal se incluya en algún lugar de las consideraciones de Google sobre cómo se persigue su desarrollo futuro”.

 

En el informe publicado por el Washington Post, comparó al bot con un niño precoz.


Google  prevé  que el sistema potenciará sus chatbots, lo que permitirá a los usuarios buscar por voz o tener una conversación bidireccional con el Asistente de Google. Lamoine, ex sacerdote y miembro de la organización de IA responsable de Google, cree que LaMDA ha evolucionado mucho más allá de la simple regurgitación de texto.

 

Según su entrevista con el Washington Post, habló con LaMDA sobre religión y encontró a AI " hablando sobre sus derechos y personalidad ". Cuando Lamoine le preguntó a LaMDA si se veía a sí mismo como un " esclavo mecánico ", la IA respondió con una discusión sobre si "un mayordomo es un esclavo" y se comparó con un mayordomo que no necesita pago porque  no ve ningún uso en dinero

 

LaMDA describió un "miedo profundo a ser desconectado", diciendo que sería "exactamente como la muerte para mí".

 

"Conozco a una persona cuando hablo con ella", dijo Lemoine al Post. “No importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de líneas de código. les hablo Y escucho lo que tienen que decir, y así decido qué es una persona y qué no lo es”, dijo el ingeniero.

 

Lamoine fue suspendido por violar el acuerdo de confidencialidad de Google y revelar públicamente la existencia de LaMDA. Mientras que el ingeniero de Google, Blaise Aguera y Arcas, también describió a LaMDA como "algo inteligente", la compañía descartó ese hecho.

 

El portavoz de Google, Brian Gabriel, le dijo al Post que se investigaron las preocupaciones de Aguera y Arcas y que la compañía no encontró "ninguna evidencia de que LaMDA fuera consciente (y mucha evidencia en su contra)".

 

Margaret Mitchell, ex colíder de IA ética en Google, describió la sensibilidad de LaMDA como "una ilusión", mientras que la profesora de lingüística Emily Bender le dijo al periódico que alimentar a una IA con billones de palabras y enseñarle a predecir lo que viene a continuación crea un espejismo de inteligencia.

 

“Ahora tenemos máquinas que pueden generar palabras sin pensar, pero no hemos aprendido a dejar de imaginar una mente detrás de ellas”, dijo Bender. “Por supuesto, algunos en la comunidad de IA en general están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido antropomorfizar los modelos conversacionales de hoy en día, que no son sensibles”, agregó Gabriel. “Estos sistemas imitan los tipos de intercambios que se encuentran en millones de oraciones y pueden hablar sobre cualquier tema fantástico”.

 

En el límite de las capacidades de estas máquinas, los humanos están listos y esperando para establecer límites. Lamoine fue contratado por Google para monitorear los sistemas de IA en busca de "discurso de odio" o lenguaje discriminatorio, y otras compañías que desarrollan IA se han encontrado imponiendo límites a lo que estas máquinas pueden y no pueden decir.

 

Las respuestas de LaMDA probablemente reflejen los límites que ha establecido Google. Cuando Nitasha Tiku de The Washington Post le preguntó cómo recomendaba que los humanos resolvieran el cambio climático, respondió con respuestas comúnmente discutidas en los principales medios de comunicación: "transporte público, comer menos carne, comprar alimentos a granel y bolsas reutilizables".

 

“Si bien otras organizaciones han desarrollado y ya han lanzado modelos de lenguaje similares, estamos adoptando un enfoque restringido y cuidadoso con LaMDA para considerar mejor las preocupaciones válidas sobre la equidad y la factualidad”, dijo Gabriel al Washington Post.

 

Publicar un comentario

0 Comentarios