LÍDERES
Karen Hao

La investigadora que se adentró en las profundidades de OpenAI y volvió para contarlo: "La burbuja de la IA está a punto de estallar"

La reportera desvela cómo OpenAI sacrificó su misión altruista para convertirse en una potencia hegemónica depredadora de recursos y datos bajo el mandato de su CEO, alerta sobre los costes ocultos de esta fiebre tecnológica y sentencia: "El verdadero objetivo nunca fue salvar a la humanidad, sino construir un imperio"

La investigadora que se adentró en las profundidades de OpenAI y volvió para contarlo: "La burbuja de la IA está a punto de estallar"
Tony Luong
Actualizado

En la oscuridad de un bosque cercano al Parque Nacional Yosemite, un grupo de científicos de élite se reúne en torno a una hoguera en el patio trasero de un hotel de lujo. Algunos visten albornoces. En el centro se alza una efigie de madera, encargada ex profeso a un artista local, que representa a una Inteligencia Artificial maligna y engañosa. El líder de la ceremonia, Ilya Sutskever, cofundador de la empresa tecnológica más importante del siglo, rocía la figura con líquido inflamable y le prende fuego mientras los demás observan las llamas en silencio.

¿Observamos un ritual pagano de una secta apocalíptica? No, se trata de un retiro corporativo de los creadores de ChatGPT. Tras la inmaculada fachada de la innovación tecnológica que promete salvar a la humanidad se esconde una realidad mucho más inquietante, visceral y religiosa, donde un pequeño grupo de hombres juega a ser dioses mientras el resto del mundo se convierte, sin saberlo, en el combustible necesario para alimentar sus desmedidas ambiciones.

Nadie ha cartografiado las sombras del nuevo poder hegemónico de la Inteligencia Artificial con la profundidad y la valentía de la periodista Karen Hao. Ingeniera mecánica, antigua editora sénior del MIT Technology Review y colaboradora de The Atlantic, Hao fue la primera reportera en acceder a las entrañas de OpenAI antes de que la compañía cerrara sus puertas a cal y canto al escrutinio público. Lejos de conformarse con la versión oficial, emprendió una investigación global que la llevó desde los talleres de explotación de datos en Kenia hasta las sequías provocadas por los centros de datos en el desierto de Atacama, destapando el coste humano y ecológico que sostiene la ilusión de la nube.

Con motivo de la publicación en España de su explosivo libro El imperio de la IA: Sam Altman y su carrera por dominar el mundo (Península), conversamos con la autora sobre la verdadera cara del fundador y CEO de OpenAI, la inminente explosión de la burbuja financiera y por qué el objetivo final de Silicon Valley nunca fue la filantropía, sino la construcción de un imperio insaciable.

'El imperio de la IA' arranca con una escena digna de Shakespeare en Silicon Valley: el despido y posterior readmisión de Sam Altman en noviembre de 2023. ¿Diría que ese fue el momento exacto en que la benéfica misión original de OpenAI murió para dar paso definitivamente al imperio?
Antes solía pensar que sí, pero ahora lo veo de otra manera. En realidad, no creo que OpenAI estuviera nunca verdaderamente comprometida con su misión, ni siquiera desde el principio. Cuando Elon Musk y Sam Altman fundaron OpenAI, ya existía un impulso ególatra detrás: querían que fuera la antítesis de Google. Nunca fue un esfuerzo puro destinado a beneficiar a toda la humanidad; fue una empresa diseñada para que OpenAI dominara y venciera a Google en la conquista del mundo. El despido y la resurrección de Altman es el momento en que se hace más evidente cuál fue siempre la intención original. Fue el momento en que consolidó su poder y se deshizo de los disidentes para avanzar en la dirección que quería. Pero no creo que fuera el momento en que se estableció como imperio; eso venía de antes.
Altman afirmó, como cita al comienzo del libro, que "los fundadores más exitosos no crean empresas, sino religiones". Después de sumergirse en las entrañas de OpenAI, ¿cree que estamos ante una compañía tecnológica convencional o más bien ante un nuevo tipo de culto secular donde la AGI (Inteligencia Artificial General) es el Mesías que justifica cualquier sacrificio?
Definitivamente lo segundo. Elegí esa cita de Altman para abrir el libro porque creo que logró exactamente lo que dijo: creó la religión de la IA para quedarse con todo. Creó un fervor religioso en torno a una misión y un objetivo muy mal definidos: esa supuesta Inteligencia Artificial General. Al ser un concepto tan vago, le permite moldearlo y redefinirlo para mover el imperio hacia donde él necesita que vaya.
Pero, en Silicon Valley, que conoce tan bien, ¿de verdad creen en una AGI que supere la inteligencia humana o se trata solo una herramienta de marketing?
Eso fue lo más sorprendente que descubrí durante la investigación para el libro: ocurren ambas cosas. Hay gente que cree genuinamente en la AGI, y luego hay gente que la usa convenientemente como herramienta de marketing. Cuando digo que creen genuinamente, me refiero a personas con las que hablé por teléfono y a las que les temblaba la voz por la ansiedad de pensar que realmente había un ser superior en el horizonte que podría devastar a la humanidad o matar a sus seres queridos. Son emociones viscerales y reales; sentí que hablaba con personas de una fe muy profunda. Al mismo tiempo, hay otros que no compran esa idea en absoluto, pero que están dispuestos a aprovecharse de la creencia sincera de los demás. Utilizan esa retórica para convencer al público y a los legisladores de que no deben ser regulados porque, supuestamente, esta tecnología es tan profunda que debe ser controlada por un pequeño grupo de personas: ellos.

"Aunque Altman ofrece una fachada de persona torturada por el peso de su responsabilidad, cada vez que toma una decisión siempre se mueve moverse hacia una mayor imprudencial"

Analicemos su inquietante retrato de Sam Altman. ¿Diría que es un visionario torturado por la responsabilidad, al estilo de Oppenheimer, o es más bien un Napoleón corporativo que ha aprendido a utilizar el miedo al apocalipsis para extender sus conquistas?
Es definitivamente más Napoleón que Oppenheimer. Lo interesante es que la gente dibuja retratos contradictorios de Altman. Yo he concluido que, aunque ofrece una muy buena fachada de persona torturada por el peso de su responsabilidad, cada vez que toma una decisión, esta siempre parece moverse hacia una mayor imprudencia, una mayor expansión imperial y una mayor dominación mundial. Se parece a Napoleón en el sentido de que su arma principal es una comprensión exacta de la psicología humana. Irónicamente, Altman observó en una ocasión precisamente eso, que el arma de Napoleón era entender la psicología humana mejor que nadie; Altman posee esa misma capacidad. Es muy bueno comprendiendo qué motiva a la gente, qué quieren, y luego ofreciéndoselo. Así es como logra cerrar tratos, recaudar fondos, reclutar talento y reunir todos los recursos necesarios para avanzar en su dirección.
Usted fue de las primeras en entrar en OpenAI, pero luego la empresa dejó de colaborar institucionalmente con usted. ¿Diría que intentaron entorpecer su trabajo de investigación?
Creo que sí intentaron dificultarlo al no cooperar, pensando que eso mermaría mi capacidad para completar el proyecto. Pero, irónicamente, eso mejoró el libro considerablemente. Me obligó a ser mucho más exhaustiva. Empecé a ver todas las entrevistas que Altman había dado y contacté a todos los empleados actuales y anteriores que pude encontrar. Además, el hecho de no tener la bendición oficial de la empresa hizo que muchas fuentes quisieran hablar conmigo, porque sentían que el libro tendría más independencia y se acercaría más a la verdad que si fuera una narrativa respaldada por la compañía. Al no participar, también me dieron más libertad para entrevistar más ampliamente y viajar a muchos más países, pasando tiempo con las personas afectadas por la empresa en lugar de quedarme dentro de ella. Eso reveló una profundidad de comprensión mucho mayor que si hubiera tenido acceso directo.
En el libro menciona esa fractura interna entre los 'boomers' (aceleracionistas) y los 'doomers' (catastrofistas preocupados por la seguridad). ¿Podemos decir ya que se trató de una falsa dicotomía? ¿Una maniobra de distracción sobre los daños reales que la IA ya estaría produciendo?
Exactamente, es absolutamente una falsa dicotomía. Diría que estos dos grupos son dos caras de la misma moneda. Ambos mantienen ese fervor religioso en torno a la creencia en una Inteligencia Artificial General futura y en que esta provocará cambios cataclísmicos en la humanidad. Por lo tanto, ambos descuidan los problemas del presente que ya están en marcha y que son devastadores para mucha gente en todo el mundo. Los aceleracionistas dicen que la AGI resolverá el cambio climático, así que no importa si el desarrollo de la tecnología lo acelera ahora mismo. Los catastrofistas dicen: "¿A quién le importa el cambio climático si la AGI va a matarnos a todos?". Ambos descartan los problemas actuales en favor de nociones teóricas futuras.

"Un experto advirtió que los centros de datos provocarán un desastre ecológico en España. Viviremos una batalla de recursos entre comunidades y ordenadores"

Hablemos de esos daños, empezando por el desempleo. Los optimistas siempre dicen que "toda nueva tecnología destruye empleos viejos pero crea otros nuevos". Sin embargo, uno tiene la sensación de que esta vez podría ser diferente. ¿Cuál es su visión?
Nadie habla de qué trabajos se destruyen y cuáles se crean. A lo largo de la historia de la automatización hemos visto que son los trabajos de nivel de entrada los que se destruyen. Los trabajos que se crean suelen ser peores (como un humano vigilando a un robot) o requieren más supervisión, rompiendo la escala profesional. Ya hay estudios, como uno de la Universidad de Stanford, que muestran una caída del 13% en los puestos de nivel de entrada en profesiones expuestas a la IA. La escalera profesional se está rompiendo. Además, la IA está afectando a muchas más industrias simultáneamente que cualquier otra ola de automatización anterior: finanzas, derecho, medios, entretenimiento... No es solo manufactura; es el trabajo del conocimiento en general. El riesgo es que esto amplifique el impacto en toda la economía.
Viajó a Kenia, donde trabajadores cobran miserias por filtrar contenido traumático para limpiar ChatGPT, y enlaza esto en el libro con la sequía en Uruguay o el desierto de Atacama. Si la IA está creando nuevos imperios, ¿qué lecciones de resistencia anticolonial podemos aprender de movimientos locales como el que cita de Mosacat?
Al igual que los imperios del pasado cayeron gracias a una amplia resistencia, debemos abordar la contención de estos imperios de la IA de la misma manera. Podemos aprender mucho de los trabajadores kenianos y de activistas chilenos como los de Mosacat. Lo que Mosacat nos enseñó es que, ante todo, tenemos agencia. Podrían haberse dado por vencidos y limitarse a ejercer como un pequeño grupo de activistas en una comunidad empobrecida del sur global frente a Google, una de las empresas más poderosas del mundo. Pero se negaron a dejar que eso sucediera. Educaron a sus vecinos y al gobierno local, construyeron apoyo público y obligaron a Google y al gobierno chileno a prestar atención. Ese es el espíritu que necesitamos: recordar que tenemos agencia para cambiar lo que hacen estas empresas. Estamos viendo más resistencia: artistas y escritores demandando porque se niegan que les arrebaten sus derechos de autor sin compensación, familias protestando por daños causados por conversaciones con chatbots tras el suicidio de sus hijos... Y las universidades empiezan a reflexionar seriamente sobre si realmente quieren adoptar estas tecnologías. Las empresas ahora tienen que responder y rendir cuentas ante muchos grupos diferentes, y si esta presión se multiplica, el imperio tendrá que caer.
¿Y qué ocurrirá cuando se apague la luz? ¿Qué sucederá cuando levantemos montones de centros de datos de IA y no quede electricidad para alimentarlos?
Es una cuestión enormemente relevante. Ya lo estamos viendo en lugares como México y en los propios Estados Unidos. En Virginia, que tiene el 15% de los centros de datos del mundo, los expertos en redes eléctricas empiezan a proponer apagones rotativos, en uno de los lugares más ricos del mundo, para poder soportar el consumo de los centros de datos. Es alarmante. Las comunidades están empezando a competir con los ordenadores por necesidades básicas. Y no es solo la energía, también es el agua. En España esto es muy pertinente, con Amazon construyendo muchos centros de datos en Aragón, una zona que sufre de un pertinaz estrés hídrico. Un experto advirtió que los centros de datos provocarán un desastre ecológico en España. Y el propio Amazon admitió recientemente que necesitan más agua para sus centros de datos precisamente porque el cambio climático aumentará la temperatura global y reclamó al gobierno español poder aumentar casi un 50% su consumo de agua. Nos enfrentamos a una batalla de recursos entre comunidades y ordenadores.

"OpenAI está en una posición muy delicada. No solo le desafía Google, sino también competidores como Anthropic, el código abierto y laboratorios chinos"

Con la resurrección de Google tras el lanzamiento de Gemini 3, cada vez más voces afirman que el imperio de OpenAI se halla en serio peligro. ¿Crees que hay algo de cierto en esto?
Sí, creo que es cierto. OpenAI está en una posición muy delicada. No solo le desafía Google, sino también competidores como Anthropic, el código abierto y laboratorios chinos. La ventaja que tiene Google es que, aunque los modelos de IA actuales pierden mucho dinero, tiene otros negocios (la nube, el buscador) que generan enormes beneficios para subsidiar esas pérdidas. OpenAI no tiene eso. Cuando OpenAI parecía detentar la posición dominante, podía justificar las pérdidas ante los inversores prometiendo ganancias futuras. Ahora que Google y otros están alcanzándolos, esa posición de liderazgo se tambalea, lo que pone muy nerviosos a los inversores. OpenAI parece mucho más inestable ahora.
Por cierto, si nos hallamos, como ya pocos niegan, ante una gigantesca burbuja financiera de la IA, ¿cree que esa burbuja se encuentra en sus momentos iniciales, a medio camino o a punto de reventar?
Yo creo que está a punto de reventar. Es una tecnología cuya sobrevaloración descansa en las promesas desaforadas de Silicon Valley. Aseguran haber creado algo así como las máquinas para todo, que pueden hacer cualquier cosa para cualquier persona. Y desde una perspectiva técnica, eso sencillamente no es verdad: los modelos de IA solo pueden hacer algunas cosas para algunas personas. Por ejemplo, simplemente con alejarse del idioma inglés, los modelos empiezan a sufrir toda clase de problemas. La realidad se halla muy lejos del hype que vivimos y por lo tanto las valoraciones de las empresas no se corresponden ni de lejos con su valor real. Las turbulencias en los mercados ya han comenzado y creo que vamos a ver un colapso muy pronto.
No me quito de la cabeza la confesión que le hacen en el libro Margaret Mitchell y Emily Bender sobre nuestra relación cuando conversamos con nuestras IA generativas y la ilusión de que hay una mente al otro lado. ¿Esperábamos ser esclavizados por Skynet y al final nos va a esclavizar un 'loro estocástico'?
Sí, subestimamos constantemente la vulnerabilidad de nuestra mente para antropomorfizar cualquier cosa. De niños antropomorfizamos árboles y rocas en los dibujos animados; es mucho más fácil hacerlo con una máquina que nos habla. Es el efecto ELIZA. Los expertos como Emily Bender o Margaret Mitchell nos advirtieron sobre esto, pero creo que la mayoría de la gente no prestó atención a cuán susceptibles somos a semejante ilusión.