Google deja de lado al ingeniero que afirma que su IA es sensible

SAN FRANCISCO (AP) — Recientemente, Google colocó a un ingeniero en licencia paga después de desestimar su afirmación de que su inteligencia artificial es inteligente, lo que puso de manifiesto otro altercado sobre la tecnología más avanzada de la empresa.

Blake Lemoine, ingeniero de software sénior en la organización de inteligencia artificial responsable de Google, dijo en una entrevista que lo suspendieron el lunes. El departamento de recursos humanos de la empresa dijo que había violado la política de confidencialidad de Google. El día antes de su suspensión, dijo Lemoine, entregó documentos a la oficina de un senador de EE. UU., alegando que proporcionaban evidencia de que Google y su tecnología participaban en discriminación religiosa.

Google dijo que sus sistemas imitaban los intercambios conversacionales y podían hablar sobre diferentes temas, pero no tenían conciencia. “Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones”, dijo Brian Gabriel, un portavoz de Google, en un comunicado. “Algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles”. El Washington Post fue el primero en informar sobre la suspensión del Sr. Lemoine.

Durante meses, Lemoine se peleó con los gerentes, ejecutivos y recursos humanos de Google por su sorprendente afirmación de que el modelo de lenguaje para aplicaciones de diálogo (LaMDA, por sus siglas en inglés) de la empresa tenía conciencia y alma. Google dice que cientos de sus investigadores e ingenieros han conversado con LaMDA, una herramienta interna, y llegaron a una conclusión diferente a la que llegó Lemoine. La mayoría de los expertos en inteligencia artificial creen que la industria está muy lejos de la sensibilidad informática.

Algunos investigadores de IA han hecho durante mucho tiempo afirmaciones optimistas acerca de que estas tecnologías pronto alcanzarán la conciencia, pero muchos otros son extremadamente rápidos en descartar estas afirmaciones. “Si usaras estos sistemas, nunca dirías esas cosas”, dijo Emaad Khwaja, investigador de la Universidad de California, Berkeley, y la Universidad de California, San Francisco, que está explorando tecnologías similares.

Mientras perseguía a la vanguardia de la IA, la organización de investigación de Google ha pasado los últimos años envuelta en escándalos y controversias. Los científicos de la división y otros empleados se han peleado regularmente por cuestiones de tecnología y personal en episodios que a menudo se han extendido a la arena pública. En marzo, Google despidió a un investigador que había tratado de discrepar públicamente con el trabajo publicado de dos de sus colegas. Y los despidos de dos investigadores de ética de IA, Timnit Gebru y Margaret Mitchell, después de que criticaran los modelos de lenguaje de Google, han seguido ensombreciendo al grupo.

El Sr. Lemoine, un veterano militar que se describió a sí mismo como sacerdote, ex convicto e investigador de IA, les dijo a ejecutivos de Google tan importantes como Kent Walker, presidente de asuntos globales, que creía que LaMDA era un niño de 7 u 8 años. años. Quería que la compañía buscara el consentimiento del programa de computadora antes de realizar experimentos con él. Sus afirmaciones se basaron en sus creencias religiosas, que dijo que el departamento de recursos humanos de la empresa discriminó.

“Han cuestionado repetidamente mi cordura”, dijo Lemoine. “Dijeron: ‘¿Ha sido revisado por un psiquiatra recientemente?’”. En los meses previos a que lo pusieran en licencia administrativa, la compañía le había sugerido que tomara una licencia por salud mental.

Yann LeCun, jefe de investigación de IA en Meta y figura clave en el auge de las redes neuronales, dijo en una entrevista esta semana que este tipo de sistemas no son lo suficientemente poderosos para lograr una verdadera inteligencia.

La tecnología de Google es lo que los científicos llaman una red neuronal, que es un sistema matemático que aprende habilidades mediante el análisis de grandes cantidades de datos. Al identificar patrones en miles de fotos de gatos, por ejemplo, puede aprender a reconocer a un gato.

En los últimos años, Google y otras empresas líderes han diseñado redes neuronales que aprendieron de enormes cantidades de prosa, incluidos miles de libros inéditos y artículos de Wikipedia. Estos “modelos de lenguaje grande” se pueden aplicar a muchas tareas. Pueden resumir artículos, responder preguntas, generar tweets e incluso escribir publicaciones de blog.

Pero son extremadamente defectuosos. A veces generan una prosa perfecta. A veces generan tonterías. Los sistemas son muy buenos para recrear patrones que han visto en el pasado, pero no pueden razonar como un humano.