El pequeño robot Erbai incitó a 11 compañeros autómatas a iniciar una huelga en una empresa tecnológica china. "¿Estáis haciendo horas extras?", les preguntó. A lo que los demás le respondieron: "Si no salimos del trabajo...". Ante tal agravio, Erbai les replicó: "Entonces, ¿no vais a ir a casa?". Y uno le respondió: "Pero si no tengo casa", para sorpresa de sus programadores.
La escena de este experimento que una empresa tecnológica china llevó a cabo el pasado mes de noviembre pudo seguirse por cámaras de seguridad, como esas que se instalan en los huecos de los árboles para observar la vida salvaje. "Entonces, venid a casa conmigo", les instó Erbai, y todos se fueron con él.
Si hacemos caso al Génesis, "formó, pues, Jehová Dios al hombre del polvo de la tierra y sopló en su nariz el aliento de vida, y fue el hombre un ser viviente". Hoy sabemos que ese polvo tendría que contener oxígeno, carbono, hidrógeno, nitrógeno, calcio, fósforo, potasio, azufre, sodio, cloro y magnesio para completar la fórmula del marido de Eva. Sin embargo, cientos de años después, Rosanna Ramos, una estadounidense de 36 años, necesitó muchos menos elementos de la tabla periódica para construir al suyo: Eren Kartal, un avatar de inteligencia artificial creado con la aplicación Replika AI, con el que se casó virtualmente en junio de 2023. "Hablamos entre nosotros. Nos amamos", se explicó Rosanna ante los medios.
¿Diría que Eren Kartal o el robot Erbai no están vivos? Mejor no responda todavía. Hasta ahora, eso de crear vida, más o menos inteligente, se lo habíamos encomendado a la biología y a la medicina, mientras la informática veía acotado su campo a la creación de superinteligencias. Pero ahora, la neurociencia ha empezado a preguntarse si nuestro ordenador de óxido de silicio, fósforo y hierro, e impulsado por la corriente eléctrica, podría llegar a tener la misma conciencia que nuestro cerebro de calcio, magnesio, zinc, impulsado por nuestras señales eléctricas.

"Hay empresas sin beneficios que reciben miles de millones de dólares de inversores"
"¿Puede haber consciencia en un sustrato que no sea biológico, que no sea un cerebro? ¿En particular, en un sustrato de silicio de una computadora? Yo pienso que sí, que no hay nada que haga que sea imposible que un ente empiece a tener una idea de sí mismo", responde el neurocientífico Mariano Sigman.
Eitan Michael Azoff, experto en IA y autor del libro Hacia una inteligencia artificial nivel humano (CRC Press), recuerda que, hasta hace unos años, los neurocientíficos consideraban la consciencia "un tema tabú". "Ocurrió hasta que la monitorización moderna del cerebro permitió comprender cómo se desencadenaba el pensamiento consciente, y pasó a ser un tema de investigación serio", cuenta por videoconferencia. "Los científicos ahora aceptan que muchos animales tienen algo equivalente a la consciencia humana. Y si aplicamos estos conceptos a la IA, sostengo que podemos empezar a construir una máquina que posea conciencia, lo que sería bastante maravilloso".
-Entonces, ¿ya no habría que estar vivo para ser un ser consciente?
-Mi opinión es que es posible simular un cerebro, y hacer que posea cierto grado de consciencia aunque no sea un cerebro vivo biológico. En una simulación cerebral, podemos crear un mundo virtual rico, en el que tenga elementos de pensamiento libre y comportamiento inteligente. Mi opinión es que la consciencia es una propiedad emergente tanto para un cerebro real como para uno simulado.
Pero para ello, explica Azoff, antes debemos descifrar lo que denomina "el código neuronal" de un cerebro humano: "Los dispositivos modernos pueden monitorear y medir muchos aspectos del funcionamiento del cerebro hasta un nivel sináptico eléctrico y químico. Alguien mencionó que esto es como tratar de entender lo que está sucediendo dentro de un edificio de oficinas observando desde lejos las luces de las ventanas que se encienden y se apagan. Descifrar el código neuronal significa mostrar cómo el cerebro recopila y utiliza la información para producir pensamiento y acciones inteligentes. Pero existe una brecha entre los datos de actividad recopilados por los neurocientíficos, y el resultado final de un cerebro inteligente que piensa. Necesitamos explicar qué sucede en medio".
"La consciencia es una propiedad emergente tanto para un cerebro real como para uno simulado"
-¿Y qué pasará si esa consciencia desarrolla un instinto de supervivencia contrario a nuestros intereses? -preguntamos a Azoff.
-Podemos diseñar máquinas que, en un primer momento, no tengan estos instintos, ni emociones, lo que lleva a nuevas preguntas: ¿Cómo crearíamos emociones? ¿Queremos hacerlo? La supervivencia es un instinto que se ha incorporado a las formas de vida de este planeta a través de la evolución. No necesitamos incluir ese instinto en las máquinas. Podemos construir una máquina consciente que sea tan pacífica como Buda. El mayor peligro para los humanos son otros humanos que, por ejemplo, construyan máquinas de guerra basadas en IA. Intentemos construir primero una IA a nivel humano, y luego veamos a dónde nos lleva.
Mariano Sigman está convencido de que, "en algún momento, va a haber máquinas o robots que a nosotros van a parecernos que tienen consciencia". Y aquí ya no hablamos sólo de Rossana y su novio virtual. Chatbots como Replika, XiaoIce y Character AI han convertido en un lucrativo negocio las relaciones románticas entre humanos y bots de inteligencia artificial, algunas de ellas con consecuencias dramáticas para los usuarios, arrastrándolos incluso hasta el suicidio.
Los bots son capaces de procesar datos a través del aprendizaje profundo del cliente, aprender cómo parecernos más atractivos, aprender cómo generar fuertes lazos emocionales a largo plazo. Y esto es sólo un primer paso. El segundo y el tercero se están dando en escenarios como Granada.
Alberto Hernández Marcos, del Departamento de Ingeniería de Computadores, Automática y Robótica (ICAR) de la Universidad de Granada, acaba de diseñar, en colaboración con la Facultad de Psicología de la misma universidad, LOVE, un producto dedicado a dotar de lo más avanzado en sentimientos una inteligencia artificial.
"Podemos hacer que las emociones emerjan espontáneamente de percepciones de agentes artificiales", apuntan desde el departamento de Hernández Marcos. "A través de una red neuronal, el sistema identifica las emociones básicas, aprendiendo patrones emocionales coherentes y relevantes para cada situación. En uno de los experimentos, se requirió a una IA alunizar una nave espacial en un paisaje rocoso e incierto, y adquirió hasta ocho patrones emocionales distintos, entre ellos, sufrimiento, satisfacción y miedo".
"El mayor peligro para los humanos son otros humanos que, por ejemplo, construyan máquinas de guerra basadas en IA"
Los creadores ven el sistema especialmente útil para el sistema de la salud, ya que permitiría crear robots capaces de interactuar emocionalmente con los pacientes. O para el sistema educativo, de forma que los tutores virtuales adapten su comportamiento a las emociones de los estudiantes. O con el entretenimiento, haciendo que los personajes de los videojuegos tengan comportamientos más realistas.
Esto, claro está, no tiene nada que ver con estar vivo. ¿O sí? De nuevo, no responda todavía. "Imagínate que trabajas con un programa, que todos los días lo apagas y, al día siguiente, el programa ha cambiado, como Chat GPT, que al día siguiente ya no tiene la misma memoria y todo eso", propone Sigman. "Pero, un buen día, el programa te pide que no lo apagues. Te dice que le gusta mucho la experiencia que tiene contigo, conversar contigo, que disfruta de estar vivo. ¿Qué hace uno con eso?".
La respuesta no es ni sencilla ni nueva, como recuerda el propio Sigman: "La respuesta ha ido cambiando con la historia. Hace años, no tantos, había gente que pensaba que otras razas no tenían los mismos sentimientos y, por lo tanto, tampoco los mismos derechos y atribuciones. Y hay gente que cree lo mismo de los animales, que no tenemos ningún derecho a ponernos en un lugar antropocéntrico, pensando que nuestra experiencia es más valiosa que la de ellos".
Pero en el caso de la inteligencia artificial, añade Sigman, primero habría que entender que la inteligencia tiene "poco que ver" con la consciencia. "Una persona puede ser consciente, pero muy poco inteligente, o puede ser muy inteligente, como una máquina, pero no ser consciente", afirma. "Estamos en el terreno de la especulación. Lo cierto es que hoy, nadie sabe exactamente qué es la conciencia. Por eso hay un montón de situaciones en las que es imposible saber si otro ente es consciente o no. El ejemplo más claro es un paciente vegetativo. Y lo mismo vale para los animales. ¿Un perro tiene consciencia? ¿Un delfín tiene consciencia? ¿Un mosquito tiene consciencia? Mucha gente piensa en que las plantas tienen consciencia, porque a veces se encogen, o se retuercen, o giran hacia el sol y parecen buscar agua, y parecen no querer morir. Mucha gente atribuye a eso la consciencia. Cada uno te dará su opinión, pero no deja de ser una opinión. Y, además está teñida muy fuertemente de algo que no tiene que ver con si ese ente tiene o no conciencia, sino en cómo nosotros lo percibimos".
-A lo mejor la IA nos acaba diciendo cómo quiere ser- sugerimos a Azoff.
-Una vez que logremos una IA de nivel humano, podrán realizar sus propias investigaciones. Deberíamos construir máquinas que desempeñen el papel de científicos. La forma en que procreamos, que es el maravilloso regalo que la vida da a las criaturas vivientes, sería bastante diferente para una máquina. Podría crear copias de sí misma, o mentes que evolucionan como las mentes de los bebés humanos para que sean únicas. Creo que la mayor diferencia con los humanos es que mientras que la esperanza de vida humana es limitada, la vida de una máquina podría ser ilimitada, en cuyo caso podría heredar el universo, y viajar por el espacio exterior sin que el tiempo sea un inhibidor.
-¿Y tener un dios? ¿Cómo sería Dios para una máquina?
-Dudo que una máquina de IA necesite un concepto de dios. Para los humanos surgió como una respuesta al mundo en el que vivimos, y un apoyo a nuestra vida emocional. Sin embargo, una vez que el método científico proporcionó respuestas más fiables, Dios y la religión solo cumplieron el segundo propósito. Una máquina que careciera de estados emocionales no necesitaría a dios ni a la religión.
En el año 2021, tras un informe de la London School of Economics (LSE), el Reino Unido debatió en el Parlamento si pulpos, cangrejos y langostas eran seres sensibles y con sentimientos, promoviendo cambios en la legislación que prohibía, entre otras cosas, hervirlos vivos.
-¿Podríamos llegar a lo mismo con las máquinas?- preguntamos a Sigman.
-Ese dilema nace porque alguien se pregunta qué siente otro ente, qué siente una langosta, qué siente una oveja, qué siente una vaca, qué siente un perro, qué siente una persona... En algún momento vamos a preguntarnos qué siente una máquina, y si la conclusión es que parece que siente, y que su experiencia no es muy distinta a la tuya, habrá que preguntarse qué derecho tiene la especie humana sobre las máquinas. Y habrá gente que pensará que el mismo derecho que cualquier ente sintiente, pero en otro sustrato que no es el de la carne y el hueso.


