
Las preocupaciones sobre la seguridad y protección de la IA están cobrando protagonismo
Por lo general, cada vez que hay un gran avance tecnológico, se tarda un tiempo antes de que se comprendan completamente todas las implicaciones de ciberseguridad, pero con el auge de los modelos de lenguaje grandes (LLMs), la seguridad de una inteligencia artificial (IA) que se puede lograr y mantener se está convirtiendo rápidamente en un diferenciador importante entre un servicio y otro.
Por ejemplo, Anthropic ahora está invitando a investigadores a intentar vulnerar un Sistema de Seguridad de IA, denominado Constitutional Classifiers, que proporciona un conjunto de principios que cada instancia de su modelo de IA debe seguir. La empresa ofrece $20,000 a cualquier investigador que pueda eludir estas medidas de seguridad.
Esa oferta llega tras la controversia en torno al lanzamiento de DeepSeek, un modelo de IA de código abierto creado en China por supuestamente una fracción del costo de otros modelos de IA similares. El único problema es que el modelo de IA DeepSeek está plagado de fallos de seguridad que hacen que su aplicabilidad en un entorno de TI empresarial sea dudosa.
Se puede argumentar que el intenso debate en torno a DeepSeek es una bendición para los equipos de ciberseguridad. La verdad es que los protocolos de seguridad de IA y ciberseguridad que las organizaciones han adoptado varían de inexistentes a laxos. En ausencia de cualquier política formal, muchos usuarios finales están compartiendo datos sensibles con proveedores de modelos de IA con poca o ninguna comprensión de cómo esos datos podrían algún día usarse para entrenar la próxima generación de un modelo que probablemente será capaz de escupir esos datos de vuelta a cualquiera que quiera elaborar el aviso correcto. En el otro extremo, algunas organizaciones están prohibiendo el uso de modelos de IA sin capacidad para hacer cumplir esas políticas. En lo que respecta a muchos usuarios finales, los modelos de IA son solo otro servicio de TI en la sombra que se emplea subrepticiamente como mejor les parezca.
Con suerte, más organizaciones, en consulta con sus equipos de ciberseguridad, pronto estarán implementando los controles necesarios para dar fuerza a las políticas que definen. Mientras tanto, los equipos de ciberseguridad necesitan tomarse el tiempo necesario para comprender exactamente cómo cada servicio de IA está utilizando los datos a los que accede, comenzando con cualquier compromiso hecho para garantizar que los datos del cliente no se utilicen para entrenar un modelo de IA. El problema es que ese compromiso podría aplicarse solo a los datos que el usuario final haya marcado en una casilla para eximir específicamente de cualquier configuración predeterminada que ningún usuario final probablemente encuentre enterrada en las cientos de páginas de cualquier acuerdo de licencia de software.
Ya se requiere un abogado bastante experimentado para navegar por los términos y condiciones de la mayoría de los acuerdos de licencia de software existentes y, a medida que se añaden más advertencias en la era de la IA, las posibilidades de que los usuarios finales no entiendan las implicaciones de compartir datos con un servicio de IA externo solo aumentan.
Mientras tanto, los ciberdelincuentes están claramente perfeccionando sus habilidades de liberación de IA, también conocidas como aprovechamiento de habilidades de ingeniería de prompts para generar resultados que eluden las barreras de seguridad de la IA que se supone que deben prevenir la creación de resultados que contengan datos sensibles desde el principio.
En última instancia, no es una cuestión de si habrá incidentes importantes de ciberseguridad que involucren a la IA, sino más bien de cuándo y en qué medida. Lo único que no es tan seguro, sin embargo, es cómo responderán las organizaciones cuando esas brechas, si es que no se han experimentado ya, inevitablemente ocurran pronto.

Informe de Barracuda sobre Ransomware 2025
Principales conclusiones sobre la experiencia y el impacto del ransomware en las organizaciones de todo el mundo
Suscríbase al blog de Barracuda.
Regístrese para recibir Threat Spotlight, comentarios de la industria y más.

Seguridad de vulnerabilidades gestionada: corrección más rápida, menos riesgos, cumplimiento normativo más fácil
Descubra lo fácil que es encontrar las vulnerabilidades que los ciberdelincuentes quieren explotar.