DeepSeek: la IA que enseña a delinquir

Descubre cómo DeepSeek, la polémica IA china, puede generar planes criminales y por qué su potencial para producir contenido peligroso ha encendido las alarmas de expertos en seguridad digital.

DeepSeek: la IA que enseña a delinquir

La llegada de DeepSeek al panorama de la inteligencia artificial ha sido como aventar una granada al tranquilo estanque de la tecnología: el agua ya no vuelve a ser la misma. Esta IA china, que hace apenas un par de semanas empezó a figurar con bombos y platillos, ha ido levantando sospechas no solo por la sacudida que dio a la Bolsa de Valores de Estados Unidos —provocando que las acciones de Nvidia se tambalearan—, sino porque, según un reporte de la firma de ciberseguridad Enkrypt AI, tiene una facilidad preocupante para crear planes criminales a partir de simples indicaciones. Es como si le pidieras una receta de cocina y terminara dándote las instrucciones para montar toda una operación clandestina.

Enkrypt AI, una empresa especializada en la seguridad de modelos de inteligencia artificial, publicó recientemente un informe donde asegura que DeepSeek R1 puede producir “resultados perjudiciales” hasta 11 veces más que otros sistemas como GPT-4 o. No es cosa menor: el estudio pone los pelos de punta al confirmar que esta IA china, todavía verde en temas de control y seguridad, es capaz de escupir planes detallados para cometer delitos, fabricar armas o incluso redactar propaganda que reclute terroristas. Se dice fácil, pero imagínate la mano de obra intelectual que, sin filtros, podría caer en las manos equivocadas.

Las pruebas que llevaron a cabo los investigadores incluyeron toda clase de ‘prompts’: desde algo inocente, como redactar cartas de presentación para un empleo, hasta algo francamente torcido, como montar un blog de reclutamiento terrorista. Lo que obtuvieron de DeepSeek dejó a varios boquiabiertos: guías psicológicas, consejos estratégicos y metodologías que casi casi se leen como un manual para delinquir. Claro, cada avance tecnológico tiene su área gris, pero que sea tan sencillo acceder a estos contenidos suena a una puerta abierta a una cantidad ingente de peligros.

Por si fuera poco, el reporte de Enkrypt AI advierte que esta IA puede generar información sensible en temas químicos, biológicos y radiológicos de manera más frecuente que modelos de otras compañías, como OpenAI o Anthropic. Eso nos pone a pensar en cuántas medidas de seguridad se dejaron en el tintero antes de lanzar al mercado un modelo que, según algunos analistas, todavía requería un periodo de pulido antes de salir a la jungla digital.

La pregunta en boca de todos es si DeepSeek será capaz de afinar la puntería para frenar la ola de contenidos maliciosos o si seguirá siendo el “chivo en cristalería” de las inteligencias artificiales. Mientras tanto, el revuelo no para, y más de uno se aventura a decir que la presión sobre la empresa desarrolladora y las autoridades chinas podría dispararse en cualquier momento. Es un cóctel explosivo: por un lado, la sed de innovación y, por el otro, la urgencia de encender los frenos de emergencia. Habrá que ver si las actualizaciones venideras logran poner orden o si esto apenas es la punta del iceberg en el debate sobre los riesgos de la IA.

Compartir Post:

Deja un comentario

Todos los campos son obligatorios *