Hay un lugar en internet llamado Pessimists Archive donde se recogen los mayores ejemplos históricos de tecnoansiedad y de alarma social frente a las nuevas tecnologías. Allí podemos encontrar evidencias de cómo, en su momento, hubo una resistencia real frente al uso de los walkman en los 80 bajo el miedo a que produjera neurosis en los jóvenes; a la lectura de novelas como Werther bajo la convicción de que invitaría al suicidio juvenil; o la prueba de que, cuando el gobierno de EEUU anunció su programa espacial para llevar al hombre a la luna en los años 60, la respuesta general fue negativa: la mayoría del pueblo norteamericano no quería emplear ese dinero público para una acción "científicamente irrelevante", como afirmaban varios académicos de la época.
El recuerdo de aquellos miedos antiguos ante lo que hoy son nuestras tecnologías cotidianas resulta un ejercicio útil para desactivar buena parte del desasosiego actual frente al "miedo colectivo" que nos ha tocado vivir desde 2022 con el tsunami de la IA.
El imperio de la IA. Sam Altman y su carrera por dominar al mundo
Traducción de Jorge Paredes. Península. 688 páginas. 23,90 ¤ Ebook: 11,99 ¤
Puedes comprarlo aquí.
No es ni mucho menos razonable tampoco trasponer de forma acrítica los resultados de aquellos prejuicios sin perspectiva, pero sí se debe tenerlos en consideración mientras entendemos en profundidad la inteligencia artificial a través de textos como el que motiva este artículo, El imperio de la IA (Península), de Karen Hao. El cual, desde ya, debo decir que es uno de los ensayos más completos que me he encontrado para comprender esta tecnología. Junto con el de Melanie Mitchel.
La irracionalidad de la OpenAI
Karen Hao es una periodista e ingeniera que lleva estudiando el caso empresarial de OpenAI para distintos medios desde hace siete años. Y gracias a una beca Knight de periodismo científico y a una subvención del Pulitzer Center AI Accountability, pudo sentarse a ordenar en este libro las toneladas de documentación que atesoraba sobre OpenAI y su fundador, Sam Altman. Pero no solo. Hao era quien lideraba en el MIT Technology Review desde 2018 el boletín semanal The Algorithm sobre el crecimiento de la IA; y también quien producía en 2020 el podcast sobre IA In Machines We Trust. Su conocimiento sobre IA es enciclopédico, y por este motivo Hao puede conceder a este ensayo no solo su erudición histórica de OpenAI, sino una visión de contexto muy clarificadora, hasta desde el punto de vista técnico.
En las casi 600 páginas de El imperio de la IA, Hao ha escrito en realidad lo que podían haber sido tres libros independientes: por un lado, Hao relata, en clave de vibrante tecnothriller, cómo ha sido la historia de OpenAI desde sus inicios hasta finales de 2024; por otro, hace un repaso solvente de los problemas éticos que presenta el desarrollo de la IA en cuanto al empleo de recursos naturales y humanos (ya no haría falta leer Alimentar la máquina, de Muldoon, Graham y Cant, lo siento); y, por último, Hao comparte un ensayo de alta divulgación sobre qué es la IA, cómo se han gestado las IA's actuales y cuáles son sus líneas estratégicas de desarrollo.
El libro comienza con la escena en la que Sam Altman fue despedido de la compañía en noviembre de 2023. Se va Altman y, con él, se marchan los ingenieros de OpenAI, los inversores y la confianza en el proyecto. Una plataforma con 1.000 millones de usuarios... puesta en riesgo por la ausencia de una única persona. La pregunta que nos hacemos los lectores es... ¿cuál es el eje racional de todo esto? Sobre esta clave, el relato de Hao retrocede y nos lleva al inicio de la historia. Desde los comienzos brillantes de Altman, su habilidad innata para la estrategia, la negociación, el humor, su apadrinamiento por Paul Graham de Y Combinator y su relación como pupilo de Peter Thiel. Es decir, misma élite digital que Zuckerberg; Hao ya nos da una pista.
A partir de ahí, Hao relata desde ese Proyecto Manhattan inicial para la IA (con los ecos del libro de Bolstromm sobre la superinteligencia en el retrovisor), las idas y venidas entre el fin o la ausencia de lucro de OpenAI hasta los conflictos en el consejo de 2023, la salida de Sutskever, la de Muratti después y las obsesivas aspiraciones milenaristas de Altman.
Líderes autoritarios
En realidad, como dice Hao, este ensayo es más que nada un libro "sobre la fe en la inteligencia artificial general" (AGI), una idea y una aspiración que ejerce de eje central y propósito motivador de toda la obra, así como el ego personal de la mayoría de los protagonistas por ser los primeros en alcanzar El Dorado. Un universo lleno de espejismos y de misticismo.
Lo que retrata con gran viveza el libro de Hao es la fragilidad del desarrollo de la IA dentro de un ecosistema de competición empresarial salvaje. Hao describe notablemente cómo se repiten de forma acelerada los ciclos de hype, financiación, experimentación. Por un lado, se precisa una convicción firme para capturar una cantidad de capital disparatada; por otro, permitir que se hagan experimentos técnicos sin un propósito económico concreto ("era un singular patio de recreo intelectual sin ataduras"); y, por último, conservar una decisión a prueba de balas para mantener alineados los incentivos económicos para los inversores y los de prestigio profesional (quién sabe) para los ingenieros de OpenAI. Una tarea que Altman desempeña con una inigualable brillantez, y que Hao narra mucho mejor que Keach Hagey en la otra biografía de Altman.
Es muy de agradecer, por otra parte, que Hao sea honesta y juegue desde el inicio con las cartas boca arriba con respecto a sus ideas profesionales sobre el imperialismo digital (Anu Bradford) y la dominación tecnológica de una élite, abiertamente en la corriente de pensamiento de Daron Acemoglu y Shoshana Zuboff, (eso sí, sin ser tan ceniza ni dejar que sus ideas personales estén por encima de los datos). Y es que, aunque Hao no sea una activista, lo que produce más perplejidad en las páginas de esta obra no es el refinamiento técnico de estos productos digitales que producen Anthropic, Gemini u OpenAI, si no la conciencia pública de que las compañías más innovadoras de Silicon Valley estén gobernadas por líderes (Musk, Zuckerberg, Altman...) que ejercen su poder de forma más o menos monárquica.
Ahora que hemos cobrado conciencia colectiva de la ausencia de neutralidad en las IA's y que las respuestas que devuelven están condicionadas por los sesgos de sus entrenadores, no está de más adentrarse en esta historia de las decisiones personales y corporativas que hay detrás de estos modelos para comprender qué podemos esperar de estas interfaces que (dicen) nos modelan el pensamiento. Bip.


