El nuevo foro de la industria invertirá en seguridad de IA y aprovechará el marco de IA segura de Google. Estas son las primeras tres áreas de enfoque.
por Brezo Adkins – Vicepresidente de Ingeniería de Seguridad; Phil Venables – Vicepresidente y director de seguridad de la información (CISO)
La IA necesita un marco de seguridad y estándares aplicados que puedan seguir el ritmo de su rápido crecimiento. Por eso, el año pasado compartimos el Marco Seguro para la IA (SAIF, por sus siglas en inglés), sabiendo que era solo el primer paso. Por supuesto, para poner en funcionamiento cualquier marco industrial se requiere una estrecha colaboración con otros y, sobre todo, un foro para que eso suceda.
Hoy, en el Aspen Security Forum, junto con nuestros colegas de la industria, presentamos la Coalición para una IA Segura (CoSAI) . Hemos estado trabajando para reunir a esta coalición durante el último año, con el fin de promover medidas de seguridad integrales para abordar los riesgos únicos que conlleva la IA, tanto para los problemas que surgen en tiempo real como para los que se avecinan.
CoSAI incluye a los miembros fundadores Amazon, Anthropic, Chainguard , Cisco , Cohere, GenLab, IBM, Intel , Microsoft, NVIDIA, OpenAI, Paypal y Wiz, y estará alojado bajo OASIS Open , el consorcio internacional de estándares y código abierto.
Presentación de los flujos de trabajo inaugurales de CoSAI
A medida que las personas, los desarrolladores y las empresas continúan trabajando para adoptar estándares de seguridad comunes y mejores prácticas, CoSAI apoyará esta inversión colectiva en seguridad de la IA. Hoy, también compartimos las primeras tres áreas de enfoque que la coalición abordará en colaboración con la industria y el mundo académico:
- Seguridad de la cadena de suministro de software para sistemas de IA: Google ha seguido trabajando para ampliar la procedencia de SLSA a los modelos de IA para ayudar a identificar cuándo el software de IA es seguro al comprender cómo se creó y gestionó a lo largo de la cadena de suministro de software. Este flujo de trabajo tendrá como objetivo mejorar la seguridad de la IA proporcionando orientación sobre la evaluación de la procedencia, la gestión de los riesgos de los modelos de terceros y la evaluación de la procedencia completa de las aplicaciones de IA ampliando los esfuerzos existentes de los principios de seguridad de SSDF y SLSA para la IA y el software clásico.
- Preparar a los defensores para un panorama de ciberseguridad cambiante: al manejar la gobernanza diaria de la IA, los profesionales de seguridad no tienen un camino simple para navegar por la complejidad de las preocupaciones de seguridad. Este flujo de trabajo desarrollará un marco para defensores que los ayude a identificar inversiones y técnicas de mitigación para abordar el impacto de seguridad del uso de IA. El marco escalará las estrategias de mitigación con el surgimiento de avances de ciberseguridad ofensiva en los modelos de IA.
- Gobernanza de la seguridad de la IA: la gobernanza en torno a cuestiones de seguridad de la IA requiere un nuevo conjunto de recursos y una comprensión de los aspectos únicos de la seguridad de la IA. Para ayudar, CoSAI desarrollará una taxonomía de riesgos y controles, una lista de verificación y un cuadro de mando para orientar a los profesionales en las evaluaciones de preparación, la gestión, el seguimiento y la presentación de informes sobre la seguridad de sus productos de IA.
Además, CoSAI colaborará con organizaciones como Frontier Model Forum, Partnership on AI, Open Source Security Foundation y ML Commons para promover una IA responsable.
Qué sigue
A medida que la IA avanza, nos comprometemos a garantizar que las estrategias de gestión de riesgos eficaces evolucionen junto con ella. Nos alienta el apoyo de la industria que hemos visto durante el último año para hacer que la IA sea segura y protegida. Nos alienta aún más la acción que estamos viendo por parte de desarrolladores, expertos y empresas grandes y pequeñas para ayudar a las organizaciones a implementar, capacitar y usar la IA de forma segura.
Los desarrolladores de IA necesitan (y los usuarios finales merecen) un marco de seguridad de IA que esté a la altura de las circunstancias y aproveche de manera responsable la oportunidad que tenemos por delante. CoSAI es el siguiente paso en ese camino y podemos esperar más actualizaciones en los próximos meses. Para saber cómo puedes apoyar a CoSAI, puedes visitar coalitionforsecureai.org . Mientras tanto, puedes visitar nuestra página Secure AI Framework para obtener más información sobre el trabajo de seguridad de IA de Google.
Fuente: https://blog.google/technology/safety-security/google-coalition-for-secure-ai/