Premium

Por qué los sistemas de IA podrían no ser nunca seguros y qué hacer al respecto

Escrito el 29/09/2025
The Economist


Los sistemas de inteligencia artificial enfrentan vulnerabilidades y riesgos que podrían impedir que sus operaciones sean completamente seguras, debido a la llamada “tríada letal”: exposición a datos externos no confiables, acceso a datos privados y capacidad de comunicación hacia el exterior. Esta combinación hace que los modelos de lenguaje grandes (LLMs) y agentes inteligentes sean especialmente susceptibles a ataques como la inyección de instrucciones, filtraciones de datos y ejecución de comandos maliciosos.


Contenido exclusivo para suscriptores

Para acceder a todo nuestro contenido crea tu cuenta y suscríbete a tu prueba de 14 días.