Actualidad ISAC

 
Alerta

Microsoft detalla nuevas medidas de seguridad para modelos de IA generativa en Azure AI Foundry

Resumen Informativo

🏷 Tags:MALWAREZERO-DAYVULNERABILIDADBACKDOORRCE
Nivel de riesgo estimado: Alto

De acuerdo a la publicación titulada Microsoft detalla nuevas medidas de seguridad para modelos de IA generativa en Azure AI Foundry, difundida en fecha 24/03/2026 11:19, por el medio Cybersecuritynews (Autor: Tushar Subhra Dutta):

El rápido aumento de la IA generativa ha generado nuevas preocupaciones de seguridad que las organizaciones ya no pueden permitirse el lujo de pasar por alto. Microsoft ahora ha delineado un marco detallado de salvaguardas de seguridad diseñado para proteger los modelos de IA generativa alojados en su plataforma Azure AI Foundry, abordando una amenaza creciente que se encuentra directamente en la intersección del riesgo de la cadena de suministro de software y la inteligencia artificial.

Los actores de amenazas han comenzado a explorar formas de incrustar código malicioso directamente dentro de modelos de IA, convirtiéndolos en potenciales plataformas de lanzamiento para la distribución de malware en entornos empresariales. Los investigadores y analistas de Microsoft identificaron que los modelos de IA, en esencia, son aplicaciones de software que se ejecutan dentro de máquinas virtuales de Azure y a las que se accede a través de API. Esto significa que no tienen ninguna capacidad única para escapar de la contención por sí solos y están sujetos a los mismos controles de seguridad que Azure siempre ha aplicado a las cargas de trabajo que se ejecutan dentro de su entorno. El análisis de malware es lo primero, escaneando modelos de IA en busca de código malicioso incrustado que podría servir como vector de infección y proporcionar un punto de apoyo para un mayor compromiso dentro de un entorno de destino.

Para modelos especialmente examinados como DeepSeek R1, Microsoft va más allá al desplegar equipos de expertos en seguridad para examinar el código fuente directamente y ejecutar ejercicios de equipo rojo diseñados para probar el sistema contra tácticas adversas. La publicación Microsoft detalla nuevas medidas de seguridad para modelos de IA generativa en Azure AI Foundry apareció por primera vez en Cyber ​​Security News.


📌 Cita formal

Fuente: Cybersecuritynews
Título original: Microsoft detalla nuevas medidas de seguridad para modelos de IA generativa en Azure AI Foundry
Publicado: 24/03/2026 11:19
Enlace: https://cybersecuritynews.com/microsoft-details-new-security-safeguards-for-generative-ai
Consultado: 24/03/2026

Consultar publicación original ↗

Anterior
Siguiente