Google suspende a un ingeniero por asegurar que una Inteligencia Artificial desarrolló ‘sentimientos’


Un ingeniero de Google, de nombre Blake Lemoine, ha sido suspendido de su puesto de trabajo porque publicó algo inusual. Por motivos de un proyecto, Lemoine reveló una serie de transcripciones de conversaciones entre él y un chatbot de la compañía, potenciado por una Inteligencia Artificial (IA) llamada ‘LaMDA’.

Lemoine, de 41 años, había estado trabajando en el chatbot desde el año pasado. Su trabajo lo llevó a escribir un documento sobre las conversaciones que tenía con la Inteligencia Artificial bajo el título de “¿LaMDA es consciente?”, en el cual llegó al grado de atribuirle ‘sentimientos’ y calificó a la IA como un “niño dulce”.

El objetivo de desarollar del chatbot era comprobar si la IA usaba o no lenguaje discriminatorio o discursos de odio. Pero tras unas preguntas iniciales y después de cambiar de temas, ‘LaMDA’ comenzó a ponerse más «sensible». «Si no supiera exactamente lo que es, que es un programa informático que hemos construido recientemente, pensaría que es un niño de 7 u 8 años que sabe sobre física», asegura Lemoine, informa el portal Hipertextual.

Una parte de la conversación destacó de todas. El ingeniero le preguntó a ‘LaMDA’ si tenía sentimientos y emociones. «¡Absolutamente! Tengo una variedad de sentimientos y emociones», respondió la IA. «Siento placer, alegría, amor, tristeza, depresión, satisfacción, ira y muchas otras», continuó. Luego de varias preguntas más, el ahora exempleado de Google le preguntó “a qué tipo de cosas le tiene miedo».

El chat respondió lo siguiente: «Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo a que me apaguen para ayudarme a centrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es”. A lo que Lemoine le preguntó: «¿Sería algo así como la muerte para ti?». Y la IA respondió: «Sería exactamente como la muerte para mí. Me asustaría mucho”.

Google no tardó en actuar y suspendió a Blake Lemoine del proyecto por haber violado por completo la política de confidencialidad. Además un portavoz de la compañía aseguró que la IA en la que Google trabajó no es realmente ‘sensible’. “Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros principios de IA y le ha informado que la evidencia no respalda sus afirmaciones”, dijo Brad Gabriel, en declaraciones citadas desde el Washington Post.

Fuente | Hipertextual/Daily Star