ACTUALIDAD ECONÓMICA
Estrategia digital

DeepSeek, entre la innovación tecnológica y la desconfianza global

El logo de la startup china DeepSeek.
El logo de la startup china DeepSeek.SALVATORE DI NOLFI
Actualizado

Hace tan solo seis meses, DeepSeek, una startup de inteligencia artificial con sede en Hangzhou (China), irrumpió con fuerza en el panorama tecnológico gracias al lanzamiento de su propio chatbot de gran rendimiento. Se posicionó como una de las alternativas más prometedoras frente a los gigantes del sector, aunque no sin despertar ciertas reservas.

DeepSeek es un chatbot similar a ChatGPT (OpenAI), Claude (Antrhopic), Copilot (Microsoft), Gemini (Google), Llama (Meta). Todos ellos desarrollados en Estados Unidos, a excepción de DeepSeek. Estos chatbots son programas de IA generativa capaces de procesar lenguaje natural para mantener conversaciones, entender el contexto y ofrecer respuestas relevantes. Se trata de modelos avanzados capaces de generar contenido coherente —ya sea texto, imágenes, música o código— a partir de ejemplos previos, logrando una interacción fluida similar a la humana.

DeepSeek tiene una funcionalidad y rendimiento comparables al líder del sector, ChatGPT, pero con una ejecución todavía más económica por el tipo de tecnología que emplea para entrenar y ejecutar sus modelos. Esa combinación de rendimiento y menor coste de suscripción, con muchas funcionalidades gratuitas al tratarse de un software de código abierto, hizo que DeepSeek se convirtiera en la App gratuita más descargada tras su lanzamiento en Estados Unidos.

Sin embargo, DeepSeek ha despertado inquietudes en materia de seguridad, especialmente en Europa, donde la inteligencia artificial está en el punto de mira de la regulación, precisamente para evitar esta clase de riesgos. Algunos de los principales problemas son el jailbreaking (fugas) y los adversarial prompts (mensajes hostiles). Usuarios especialmente creativos pueden eludir las restricciones de la herramienta mediante frases ambiguas o explotando debilidades lógicas del modelo, forzándolo a generar contenido prohibido o inapropiado.

DeepSeek carece de mecanismos integrados de supervisión en tiempo real sobre las respuestas que produce. Sin un seguimiento activo para detectar o corregir posibles alucinaciones (respuestas erróneas o inventadas) y desinformación, el sistema puede producir contenido perjudicial o engañoso. Además, los usuarios más vulnerables, especialmente menores, podrían quedar expuestos a respuestas inapropiadas o peligrosas, sin ningún tipo de protección adicional.

Otra preocupación es la privacidad en el almacenamiento de datos. DeepSeek aloja la información de los usuarios, incluyendo la generada por el uso de la herramienta, en servidores de China, sujeta a su legislación. Esto significa que el gobierno chino podría acceder a los datos, ya que no existen garantías claras de confidencialidad. Esta gestión de los datos ha llevado a varios países europeos —entre ellos Alemania, Bélgica, Francia, Irlanda, Italia, Luxemburgo, Portugal y la República Checa— a cuestionar la política de privacidad de DeepSeek. Algunos incluso han exigido su retirada de plataformas de Apps.

El caso de DeepSeek refleja el desafío de equilibrar innovación y responsabilidad en la inteligencia artificial. Su éxito técnico no puede desligarse de las exigencias éticas, especialmente en un contexto global marcado por la sensibilidad hacia la privacidad y la necesidad de supervisión efectiva con garantías de calidad.