Los sistemas de inteligencia artificial enfrentan vulnerabilidades y riesgos que podrían impedir que sus operaciones sean completamente seguras, debido a la llamada “tríada letal”: exposición a datos externos no confiables, acceso a datos privados y capacidad de comunicación hacia el exterior. Esta combinación hace que los modelos de lenguaje grandes (LLMs) y agentes inteligentes sean especialmente susceptibles a ataques como la inyección de instrucciones, filtraciones de datos y ejecución de comandos maliciosos.
Premium
Por qué los sistemas de IA podrían no ser nunca seguros y qué hacer al respecto
Escrito el 29/09/2025
The Economist
Contenido exclusivo para suscriptores
Para acceder a todo nuestro contenido crea tu cuenta y suscríbete a tu prueba de 14 días.

