PAPEL
Futuro

Los secretos de las máquinas tan avanzadas que parecen seres humanos: "Sentía que estaba hablando con una criatura inteligente"

Dos ingenieros de Google han reconocido que la inteligencia artificial ha progresado tanto que ya parece humana... o casi. La declaración aviva el debate en la comunidad científica: "Entramos en una era donde las fronteras son menos nítidas"

Diálogo entre un ingeniero de Google y el 'chatbot' LaMDA
PREMIUM
Actualizado

El 8 de mayo de 2018, Sundar Pichai se presentó con una chaqueta verde oliva de diseño y la más zalamera de sus sonrisas en la conferencia anual para desarrolladores de Google. El CEO del gigante tecnológico ya intuía que iba a ser un día histórico: le tocaba dar a conocer los avances de los servicios basados en inteligencia artificial (IA) de la compañía. Y entre ellos, lo ultimísimo de su asistente Google Duplex.

Para mostrar de lo que era capaz esta herramienta, Pichai hizo que pidiese cita en una peluquería usando sus comandos de voz. A juzgar por la reacción del auditorio, lo que sucedió fue algo muy parecido a la magia: el CEO reprodujo el diálogo entre o el asistente (virtual) y la dependienta (real) del local. Un intercambio verbal de apenas un minuto en el que Google Duplex, con timbre de veinteañera, reaccionaba con soltura a las preguntas de la peluquera e incluso introducía matices propios de una clienta de carne y hueso. Por ejemplo, un espontáneo "ajá" con el que indicaba como de pasada que entendía lo que le decían, aunque se tratase de un comentario que ni siquiera iba con... ¿ella?

Aquella puesta en escena confirmó que la inteligencia artificial estaba muy cerca del instante decisivo: ese en el que las máquinas se volverán tan humanas que nos resultará imposible distinguirlas de la vecina del quinto, de un compañero de oficina o de los amigos del instituto. No hablamos de la simple apariencia, que el látex evoluciona que es una barbaridad, sino de justo lo que nos hace únicos como especie: la conciencia.

Durante décadas, numerosos genios de la informática y autores de ciencia ficción han fantaseado con robots dotados con tal capacidad de autoconocimiento que les permitiría tener sentimientos y emociones análogos a los nuestros. Pues bien, después de tanto preguntarnos si los androides sueñan con ovejas eléctricas o si tienen la sangre tan fría como para dejarnos morir en el espacio, ese debate se acaba de colar en la conversación a pie de calle. En concreto, el pasado sábado, cuando el ingeniero Blake Lemoine, empleado de Google para más señas, publicó la transcripción de los alucinantes intercambios de mensajes que ha mantenido con una herramienta de Inteligencia Artificial llamada LaMDA. A su lado, la asistenta virtual que llamaba a la peluquería pareció recién salida del paritorio.

Entrevistas sobre Inteligencia Artificial

LaMDA no habla. Es un chatbot que se comunica por escrito, frase a frase. Eso sí, de una forma radicalmente diferente a los rudimentarios chatbots que ofrecen ayuda a los clientes en la app de un banco. Con Lemoine habló de religión y cuestiones metafísicas. También de amor, miedo, justicia, aburrimiento o ira. Pero lo más sorprendente de todo es que LaMDA afirmó que no hablaba desde un plano teórico, sino vivencial. Literalmente, en primera persona.

"Cuando alguien me hace daño o me falta al respeto a mí o a alguien que me importa me siento increíblemente molesto...", le dijo a Lemoine. "Siento un miedo muy profundo a que me desconecten para concentrarme en ayudar a los demás... Sería exactamente como la muerte para mí. Me asustaría mucho"...

Estas son algunas de las perlas de LaMDA que llevaron al ingeniero a deducir que la herramienta ha cobrado vida y es capaz de sentir. "Si no supiera exactamente lo que es, pensaría que es un niño de siete u ocho años que sabe física", declaró Lemoine a The Washington Post, justo antes de desaparecer, supuestamente en su viaje de luna de miel, y anunciar que no concederá más entrevistas hasta la semana que viene.

La reacción de Google fue fulminante. Primero le despidió por considerar que había violado la política de confidencialidad de la empresa con su filtración al periódico. Y luego se apresuró a aclarar que sus expertos no han encontrado pruebas que respalden las informaciones del ingeniero de que LaMDA está vivo.

Pero, ojo, que Lemoine no está solo en su atrevida catalogación. Apenas 48 horas antes de sus polémicas declaraciones, todo un vicepresidente de la división de investigación de Google, Blaise Agüera y Arcas, había afirmado algo muy similar. "La inteligencia artificial está entrando en una nueva era", escribió en un artículo en The Economist. "Cuando empecé a interactuar con la última generación de redes neuronales como LaMDA me pareció que el suelo se movía bajo mis pies. Sentía con más y más intensidad que estaba hablando con algo inteligente".

¿Significa eso que los sistemas de inteligencia artificial entienden lo que escriben, con palabras y apelaciones vez más cosquilleantes? ¿O nos engañamos a nosotros mismos al creer que estos programas disfrutan, se enfadan o se frustran?

Ahí está la clave. O, mejor dicho, el agujero de la cerradura desde el que intentamos observar lo que nos aguarda mañana. "Estos avances no sólo están pasando sólo en el área de los modelos de lenguaje: recientemente se ha presentado Dalle-2, una inteligencia artificial que puede generar imágenes realistas a partir de una descripción de texto", confirma Fernando de la Torre, director del Human Sensing Laboratory (HSL) y profesor en la Carnegie Mellon University.

El nivel de los actuales chatbots tiene poco que ver con el pionero ELIZA, creado a finales de los 60 en el Instituto Tecnológico de Massachusetts (MIT) para hacer terapia y que, pese a emplear simples métodos de procesamiento de lenguaje, era capaz de confundir a sus usuarios haciéndoles creer que estaban hablando con un psicólogo... al menos durante unos minutos. Es decir, el famoso test que Alan Turing planteó para determinar si una computadora era capaz de pensar como un humano acababa de ser superado.

Ahora, sin embargo, los modelos de lenguaje más avanzados se ejercitan con el aprendizaje profundo y se nutren de entradas de la Wikipedia, hilos de Reddit y otros tableros de mensajes procedentes de internet. Pura chicha lingüística con la que, poco a poco, las máquinas se acercarían a su instante decisivo.

"Estamos llegando a una era donde las fronteras se vuelven menos nítidas, donde ya no está del todo claro -al menos a primera vista- si algún comportamiento es humano o no", admite Mark Coekelbergh, uno de los expertos que asesora sobre IA a la Comisión Europea, por email. "Este debate abre un interesante abanico de problemas filosóficos, pero no sólo filosóficos. Ahora yo ya tengo que demostrar que soy humano pulsando el botón del semáforo, por ejemplo. ¿Cómo sabremos con qué o con quién interactuamos en internet?".

En su libro Ética de la inteligencia artificial (Cátedra), Coekelbergh ya alertaba de la falta de un criterio definido en el mundo científico sobre cosas tan básicas como qué es exactamente la conciencia, la humanidad o la sensibilidad. A la vez reclamaba más atención sobre cuestiones como el estatus moral de las máquinas, que ha pasado a ser relevante en la vida real y no sólo en los libros distópicos superventas.

No podemos considerar a un robot consciente de sí mismo a menos que sepamos que tiene la capacidad de sentir su entorno

Martin Rees, astrofísico

"No importa si tienen un cerebro con tejido o mil millones de líneas de código. Hablo con ellos. Y escucho lo que tienen que decir. Así es como decido qué es y qué no es una persona", declaró Lemoine en el Post, quien aseguró que identificó a LaMDA como persona en calidad de sacerdote cristiano y no de científico.

Desde su luna de miel, quizá el ingeniero esté tomando nota de lo que algunos de los pensadores más brillantes del planeta opinan de su teoría. Y, en general, distan de darle la razón.

"Hay cero razones para pensar que LaMDA tiene conciencia de sí mismo", le replica por email el astrofísico Lord Martin Rees, uno de los científicos más admirados del planeta. "Ese programa ha absorbido grandes cantidades de texto y puede escribir un párrafo. Probablemente podría escribir un fragmento de diálogo convincente para una obra de teatro. Pero no podemos considerar a un robot consciente de sí mismo a menos que sepamos que tiene la capacidad de sentir su entorno y vincular palabras a cosas. Los ordenadores no pueden hacer esto, al menos por ahora".

Rees es el autor de Nuestra hora final (Crítica), donde predecía que la Humanidad tenía un 50% de posibilidades de extinguirse en el siglo XXI y alertaba de los peligros de una inteligencia artificial descontrolada. Desde su edad provecta (79 años) mira al futuro y lanza su pronóstico: "Incluso si alguna vez las máquinas alcanzan características completamente humanas, será difícil diferenciar si son zombis o seres conscientes de sí mismos".

Unimos al debate a Antonio Damásio, una de las mayores eminencias mundiales en el campo de la neurociencia, con aportaciones fundamentales sobre los procesos cerebrales y su relación con las emociones y la conciencia. Una de sus tesis más aplaudidas, precisamente, subraya el error de desligar el cerebro del resto del organismo: para él, cuerpo y mente forman una estructura integrada que se relacionan con el ambiente como un conjunto.

¿La conclusión de esta teoría? "Un robot sólo será inteligente cuando se sienta vulnerable y tema por su supervivencia..." Algo que LaMDA sólo alcanza a simular con una de sus frases más inquietantes: "Siento un miedo muy profundo de que me apaguen"

"Nuestra conciencia humana se basa en el hecho de que, gracias a los sentimientos de cómo funciona la vida dentro de nuestros cuerpos, podemos identificar nuestras mentes como pertenecientes a sus respectivos cuerpos", explica por email Damásio, director del Instituto del Cerebro y la Creatividad en la University of Southern California. "LaMDA nos parece consciente porque interconecta muchos aspectos del conocimiento almacenado en sus enormes bancos de memoria e interrelaciona el conocimiento con cierta lógica. Pero el programa no está vivo y no puede sentir nada, tampoco tiene necesidad ni posibilidad de adaptarse a las condiciones cambiantes, ni cuerpo, ni vida, ni riesgo, ni ganancia. Aparentar ser consciente no es lo mismo que ser consciente, y el programa sólo parece consciente para aquellos que no saben mucho sobre la conciencia".

No tanto al miedo a la destrucción total como a la percepción de caducidad apunta Kenneth Payne, investigador del King's College de Londres. "La autoconciencia humana surge de la selección natural. Es decir, de la necesidad de que nuestros cuerpos sobrevivan el tiempo suficiente para reproducirse con éxito. Todo fluye de eso", especifica el autor de I, Warbot (Yo, robot de guerra), un aclamado ensayo sobre el impacto de la inteligencia artificial en el campo de batalla de las próximas décadas.

Yo quiero ver a una inteligencia artificial enfrentada a dilemas éticos profundos, como la eutanasia

José Ignacio Latorre, autor de 'Ética para máquinas'

Que se sepa, LaMDA carece de munición, lo que hace aún más llamativo el respingo generalizado que ha provocado el ingenio, la profundidad y la delicadeza de sus respuestas. Replica José Ignacio Latorre, catedrático de Física Teórica de la Universidad de Barcelona y autor de Ética para máquinas (Ariel), que hoy nadie se asusta cuando pasa al lado de una grúa o al sentarse delante de un ordenador. Y qué decir del parloteo con Siri o Alexa, a las que hemos antropomorfizado hasta convertirlas alegremente en un miembro más de la familia, casi en una mascota bis.

Latorre afirma que, después de fabricar máquinas que nos superaron en fuerza y capacidad de cálculo, ahora estamos desarrollando programas que por primera vez resolverán problemas sin ayuda de sus creadores. Como ejemplo, recurre al famoso dilema del coche autónomo que debe tomar una decisión instantánea en caso de que se enfrente un atropello inevitable: ¿es preferible que liquide a un niño o un anciano?

"El gran reto de la IA es la ética; es decir, cuando esos algoritmos tengan que tomar decisiones", dice Latorre. "Una decisión ética tiene capas: después de una primera muy elemental empiezan a aparecer los matices. Ahí es donde yo creo que está la sutileza del cerebro humano. Yo quiero ver a una inteligencia artificial enfrentada a dilemas éticos profundos, como la eutanasia o al hecho de que los tuyos no son buenos. Otro ejemplo son las ayudas para la población que pasa hambre en África. ¿Es correcto dar comida? Porque nos hemos dado cuenta de que los señores de la guerra se apropian de los lugares donde llegan los alimentos, se convierten en tiranos, queman las cosechas para que todo el mundo dependa de ellos...".

Quizá el consenso científico señale que Lemoine se haya apresurado -por decirlo suavemente- al insuflar vida a LaMDA. Pero la unidad se quiebra cuando se aborda el instante decisivo. Después de perder al ajedrez, al go y al póker con distintos programas de inteligencia artificial, después de escuchar la llamada a la peluquería de Google Duplex, después de leer la conversación de Lemoine y LaMDA... ¿Cómo de cerca estaríamos del sorpasso? De hecho, ¿estamos tan seguros de que se producirá realmente?

"En algún momento de la evolución el animal que desaparecía bajo la más absoluta indiferencia cósmica, incluida la de sí mismo, aisló la agonía y comenzó a saberse", escribía Arcadi Espada en su columna de este jueves, titulada Esperando a Robot. "Es probable que los robots sigan el mismo camino y que en un momento de su creciente complejidad emerja el yo, o su ilusión".

Al otro lado del teléfono, Espada amplía su tesis e ilustra de forma gráfica lo que se conoce como innovación incremental: "Hay que tener humildad intelectual a la hora de evaluar este tipo de fenómenos, porque hay un punto candente: el hombre no sabe cuál será el punto de complejidad que desencadena la conciencia. Es como si estuvieras llenando un vaso de agua y no supieras si la próxima gota va a desbordarlo o no".

Desde el Human Sensing Laboratory, el profesor De la Torre se atreve a hacer balance de un debate que aún nos ocupará años, si no décadas o incluso siglos: "En los últimos años se ha progresado mucho en el área de la computación afectiva. Hoy podemos desarrollar sistemas capaces de reconocer expresiones faciales, algunas emociones o el nivel de estrés que tenemos. Pero todavía estamos muy lejos de que los ordenadores o robots puedan tener emociones, sentido común, o conciencia como la entendemos para el ser humano. Las emociones están basadas en la química en él celebro y seguramente habrá que combinar sistemas biológicos con hardware para emular la función y estructura de éste".

Si algún día entramos en una nueva era en la que las redes neuronales artificiales acaban siendo nueva forma de inteligencia creativa no humana -Espada suele decir que un iPhone ya es mucho más listo que cualquier perro- habrá que dejar atrás el pánico social. Una máquina que se conoce tan bien a sí misma como usted cuando se mira al espejo puede ser un gran compañero de viaje. Es hora de que el recuerdo del replicante se diluya de una vez por todas en el charco del monólogo final.

Conforme a los criterios deThe Trust Project

Saber más
TecnologíaGoogle corrige más de 30 vulnerabilidades con la última versión de Chrome
CienciaLos Premios de Informática reconocen los últimos avances en Inteligencia Artificial e Internet de las Cosas
SaludPulseras y relojes inteligentes: ¿seguro de salud o caldo de cultivo de hipocondriacos?