En la inmensa mayoría de los videojuegos el jugador debe competir o colaborar con otros personajes y elementos del escenario: disparar a un adversario, vender y comprar objetos a un comerciante o saltar sobre un enemigo. Un conjunto de reglas fijas y diálogos predefinidos especifican qué dirán o cómo van a reaccionar ante una situación estos personajes no jugadores, que en conjunto suelen ser conocidos por las siglas en inglés de non-playable characters, o NPC.
Algunos NPC requieren un comportamiento más complejo. En estos casos los desarrolladores usan desde hace años algunas herramientas de inteligencia artificial que añaden un poco más de aleatoriedad a sus acciones. En un juego de acción en primera persona, por ejemplo, un enemigo puede buscar cobertura cuando el usuario dispara, o tenderle un trampa al doblar la esquina de un pasillo. Pero la reciente oleada de inteligencias artificiales generativas, como ChatGPT o Bard, ha abierto las puertas a comportamientos y diálogos todavía más sofisticados, casi indistinguibles de los que tendría un personaje controlado por un humano.
Un reciente estudio de la Universidad de Stanford, en California, ha tratado de explorar cómo afectarían a un juego de simulación y los resultados son sorprendentes. No sólo los personajes se comportan de forma realista sino que son capaces de coordinarse entre sí para realizar tareas complejas, como organizar una fiesta, o incluso recordar ciertos eventos.
El estudio creó un juego de simulación bidimensional parecido en esencia a Los Sims, Animal Crossing o Stardew Valley. El pueblo virtual donde transcurría la acción se llenó con 24 personajes gobernados por instancias de ChatGPT a los que se les dio instrucciones sencillas en lenguaje natural. Estos personajes comenzaron a vivir su vida en el pueblo siguiendo estas instrucciones, con consecuencias inesperadas.
A una de ellos, por ejemplo, se le pidió que organizara una fiesta de San Valentín en la cafetería el pueblo. El personaje contactó con otros vecinos para informarles del evento, pero a su vez, estos otros vecinos corrieron al voz y organizaron actividades complementarias. Uno de los vecinos, que se enteró del evento a través de un tercero, incluso acudió a la organizadora para pedir que le invitara.
Otro decidió presentarse a alcalde del pueblo y entre los diferentes vecinos empezaron a surgir debates sobre la campaña o las posiciones ideológicas del resto. El experimento siguió las diferentes interacciones durante dos días y el resultado puede verse en una web creada por el equipo de desarrollo.
Para tratar de evaluar la autenticidad del comportamiento, el estudio también utilizó a 24 voluntarios humanos que durante el mismo periodo de tiempo interpretaron el papel de los diferentes vecinos. Un panel independiente comparó luego los diálogos y acciones de los dos grupos para decidir cuál era el más "auténtico" de los dos. El pueblo gobernado por las 24 instancias de ChatGPT fue considerado como el más realista.
Este tipo de tecnologías aún son demasiado caras de implementar en los actuales juegos. El experimento de Stanford, por ejempló, tuvo un coste de miles de dólares en tiempo de cálculo y acceso a los servidores de OpenAI. Los responsables, no obstante, creen que en un futuro cercano estas estrategias serán comunes a la hora de poblar mundos virtuales e incluso podrán utilizarse para modelar y estudiar comportamientos sociales humanos en condiciones que sería imposible lograr en la realidad.
Algunos estudios de desarrollo de videojuegos están también comenzado a experimentar con modelos de lenguaje como GPT para generar los diferentes diálogos de los personajes durante la fase de desarrollo del juego, un paso que hasta ahora requería de varios escritores y guionistas. Ubisoft, el estudio detrás de franquicias como Assassin's Creed o Far Cry ha creado una herramienta, Ghostwriter, que se encargará de hacer que los diálogos de los NPC en sus futuros juegos sean más interesantes y variados.
Conforme a los criterios de
