Actualizaciones sobre el Programa de Subvenciones de Ciberseguridad de OpenAIa, Recompensas de Errores e Iniciativas de Seguridad
Weirre comparte desarrollos que reflejan nuestro progreso, impulso y compromiso con la excelencia en seguridad en nuestro ambicioso camino hacia AGI.
Evolucionando nuestro Programa de Subvenciones de Ciberseguridad
Desde lanzamiento del Programa de Subvenciones de Ciberseguridad hace dos añoshemos revisado más de mil aplicaciones y financiado 28 iniciativas de investigación, obteniendo información crítica sobre áreas como la inyección rápida, la generación segura de código y las defensas autónomas de ciberseguridad.
Continuamos financiando proyectos audaces e innovadores destinados a avanzar en las ciencias de la IA y la ciberseguridad.
El Programa de Subvenciones de Ciberseguridad ahora está solicitando propuestas para una gama más amplia de proyectos. Las áreas de enfoque prioritarias para las nuevas solicitudes de subvenciones incluyen:
- Parcheo de software: Aprovechar la IA para detectar y parchear vulnerabilidades.
- Modelo de privacidad: Mejorar la robustez contra la exposición involuntaria de datos de entrenamiento privado.
- Detección y respuesta: Mejorar las capacidades de detección y respuesta contra amenazas persistentes avanzadas.
- Integración de seguridad: Aumentar la precisión y la confiabilidad de la integración de IA con herramientas de seguridad.
- Seguridad agentic: Aumento de la resiliencia en los agentes de IA contra ataques sofisticados.
También estamos introduciendo micro-subvenciones para propuestas de alta calidad. Estos son créditos API proporcionados a los investigadores para crear prototipos rápidos de ideas y experimentos innovadores de ciberseguridad.
Si estás interesado en participar, te invitamos a envíe una propuesta aquí.
Investigación de seguridad de código abierto
Además del Programa de Subvenciones de Ciberseguridad, estamos involucrando a investigadores y profesionales de toda la comunidad de ciberseguridad. Esto nos permite aprovechar las últimas ideas y compartir nuestros hallazgos con aquellos que trabajan hacia un mundo digital más seguro. Para capacitar a nuestros modelos, nos asociamos con expertos en laboratorios académicos, gubernamentales y comerciales para comparar las brechas de habilidades y obtener ejemplos estructurados de razonamiento avanzado en todos los dominios de ciberseguridad. La colaboración ha arrojado resultados impresionantes en temas como la seguridad del código, un área en la que tenemos la intención de ser líderes en la industria con nuestra capacidad de modelos para encontrar y parchear vulnerabilidades en el código. Weizve demostró internamente la capacidad de vanguardia en esta área con puntajes líderes de la industria en puntos de referencia públicos, ha encontrado vulnerabilidades en el código de software de código abiertoy divulgaremos las divulgaciones de seguridad a las partes relevantes de código abierto a medida que las identifiquemos y escalemos.
Ampliando nuestro Programa de Recompensas de Errores de Seguridad
Nuestro Programa de Recompensas de Errores de Seguridad recompensa a los investigadores de seguridad por identificar de manera responsable las vulnerabilidades y amenazas dentro de nuestra infraestructura y productos. Estamos haciendo mejoras en el programa para abordar mejor las amenazas en evolución.
Aumento de los pagos máximos de recompensas por errores
Estamos aumentando significativamente el pago máximo de recompensas por hallazgos críticos excepcionales y diferenciados a $100,000 (anteriormente $20,000). Este aumento refleja nuestro compromiso de recompensar la investigación de seguridad significativa y de alto impacto que nos ayuda a proteger a los usuarios y mantener la confianza en nuestros sistemas.
Período de promoción de bonos
Para celebrar la expansión de nuestro programa de recompensas de errores, weiwre lanza promociones por tiempo limitado. Durante los períodos promocionales, los investigadores que presenten informes de calificación dentro de categorías específicas serán elegibles para bonos de recompensa adicionales. Cada categoría promocional tiene criterios y plazos de elegibilidad específicos y claramente definidos, que puede ver en nuestra Programa de Recompensas de Bug(se abre en una ventana nueva)página.
Fortalecimiento de la seguridad en un paisaje dinámico
Las amenazas a la seguridad evolucionan constantemente y a medida que nos acercamos a AGI, esperamos que nuestros adversarios se vuelvan más tenaces, numerosos y persistentes. En OpenAI, nos adaptamos de manera proactiva de múltiples maneras, incluso mediante la construcción de medidas de seguridad integrales directamente en nuestro infraestructura y modelos.
Defensa cibernética impulsada por IA
Para proteger a nuestros usuarios, sistemas y propiedad intelectual, estamos aprovechando nuestra propia tecnología de IA para escalar nuestras defensas cibernéticas. Desarrollamos métodos avanzados para detectar amenazas cibernéticas y responder rápidamente. Como complemento junto con las estrategias convencionales de detección de amenazas y respuesta a incidentes, nuestros agentes de seguridad impulsados por IA ayudan a mejorar las capacidades de detección de amenazas, permiten una respuesta rápida a las tácticas adversarias en evolución y equipan a los equipos de seguridad con la inteligencia precisa y procesable necesaria para contrarrestar los ataques cibernéticos sofisticados.
Equipo rojo adversarial continuo
Nos hemos asociado con EspectroOps(se abre en una ventana nueva), reconocidos expertos en investigación de seguridad y operaciones adversas, para probar rigurosamente nuestras defensas de seguridad a través de ataques simulados realistas en toda nuestra infraestructura, incluidos los entornos corporativos, en la nube y de producción. Estas evaluaciones continuas nos permiten identificar vulnerabilidades de manera proactiva, mejorar nuestras capacidades de detección y fortalecer nuestras estrategias de respuesta contra amenazas sofisticadas. Más allá de estas evaluaciones, también estamos colaborando para generar capacitación avanzada en habilidades para mejorar nuestras capacidades de modelo en técnicas adicionales para proteger mejor nuestros productos y modelos.
Interrumpir a los actores de amenazas y combatir proactivamente el abuso malicioso de la IA
Monitoreamos y monitoreamos continuamente interrumpir los intentos de actores maliciosos para explotar nuestras tecnologías. Cuando identificamos amenazas dirigidas a nosotros, como un reciente campaña de spear phishing dirigida a nuestros empleados(se abre en una ventana nueva), no solo nos defendemos, compartimos tradecraft con otros laboratorios de IA para fortalecer nuestras defensas colectivas. Al compartir estos riesgos emergentes y colaborar en toda la industria y el gobierno, ayudamos a garantizar que las tecnologías de IA se desarrollen e implementen de forma segura.
Asegurar agentes emergentes de IA
A medida que introducimos agentes avanzados de IA, como Operador y investigación profundainvertimos en comprender y mitigar los desafíos únicos de seguridad y resiliencia que surgen con dicha tecnología. Nuestros esfuerzos incluyen el desarrollo de métodos de alineación sólidos para defenderse contra ataques de inyección rápida, el fortalecimiento de la seguridad de la infraestructura subyacente y la implementación de controles de monitoreo de agentes para detectar y mitigar rápidamente comportamientos no deseados o dañinos. Como parte de esto, estamos construyendo una tubería unificada y un marco modular para proporcionar visibilidad y aplicación escalables en tiempo real a través de acciones de agentes y factores de forma.
Seguridad para futuras iniciativas de IA
La seguridad es una piedra angular en el diseño e implementación de proyectos de IA de próxima generación, como Stargate. Trabajamos con nuestros socios para adoptar prácticas de seguridad líderes en la industria, como arquitecturas de confianza cero y soluciones de seguridad respaldadas por hardware. Donde estamos expandiendo sustancialmente nuestra infraestructura física, nos asociamos estrechamente para garantizar que nuestras salvaguardas físicas evolucionen en conjunto con nuestras capacidades de IA. Estas estrategias incluyen la implementación de controles de acceso avanzados, monitoreo de seguridad integral, protecciones criptográficas y defensa en profundidad. Estas prácticas, combinadas con un enfoque en asegurar las cadenas de suministro de software y hardware, ayudan a construir la seguridad fundamental desde cero.
Ampliando nuestro programa de seguridad
Estamos haciendo crecer nuestro programa de seguridad en varias dimensiones, y estamos buscando ingenieros apasionados en varias áreas. Si está interesado en proteger OpenAI y nuestros clientes – y construir el futuro de AI— seguro y confiablea WeIWD le encanta saber de ti(se abre en una ventana nueva)¡!
Mirando hacia adelante
Lograr nuestra misión requiere más que tecnología innovadora. Exige prácticas de seguridad robustas y en continua evolución. A medida que nuestros modelos avanzan rápidamente, nuestras capacidades tecnológicas superan incluso cuando estuvimos hace seis meses, nuestra responsabilidad de fortalecer las medidas de seguridad crece proporcionalmente.
Hoy en día, atendemos a más de 400 millones de usuarios activos semanales en empresas, empresas y gobiernos de todo el mundo. Esta escala conlleva una obligación crucial para salvaguardar los sistemas, la propiedad intelectual y los datos que nuestros usuarios nos confían.
En OpenAI, la seguridad es un compromiso profundamente arraigado que se fortalece a medida que avanzan nuestros modelos y productos. Seguimos totalmente dedicados a un enfoque proactivo y transparente, impulsado por pruebas rigurosas, investigación colaborativa y un objetivo claro: garantizar el desarrollo seguro, responsable y beneficioso de AGI. OpenAI News