Los sistemas de inteligencia artificial enfrentan vulnerabilidades y riesgos que podrían impedir que sus operaciones sean completamente seguras, debido a la llamada “tríada letal”: exposición a datos externos no confiables, acceso a datos privados y capacidad de comunicación hacia el exterior. Esta combinación hace que los modelos de lenguaje grandes (LLMs) y agentes inteligentes sean especialmente susceptibles a ataques como la inyección de instrucciones, filtraciones de datos y ejecución de comandos maliciosos.
Por qué los sistemas de IA podrían no ser nunca seguros y qué hacer al respecto
Escrito el 29/09/2025