Un hacker robó documentos internos de OpenAI, según un informe

Se informó que el año pasado se produjo una violación de seguridad en OpenAI, cuando un pirata informático robó documentos internos, pero no el código fuente.

Los medios de comunicación informaron que los sistemas de mensajería interna de OpenAI fueron comprometidos el año pasado por un pirata informático.

El New York Times , citando dos fuentes, informó que la violación de seguridad en el fabricante de ChatGPT el año pasado había revelado discusiones internas entre investigadores y otros empleados, pero no el código detrás de los sistemas de OpenAI.

Cabe señalar que el mes pasado, en junio, OpenAI nombró a una figura militar estadounidense de alto rango para su junta directiva, con el fin de ayudar a proteger mejor a ChatGPT de las ciberamenazas y mejorar la seguridad de la IA.

Crédito de la imagen de ChatGPT Ir al perfil de ilgmyzin ilgmyzin Unsplash
Crédito de la imagen: Ilgmyzin/Unsplash

Violación de la seguridad

OpenAI nombró al general retirado del ejército de EE. UU. Paul M. Nakasone, quien fue fundamental en la creación del Comando Cibernético de EE. UU. y fue su comandante con más años de servicio.

El general Nakasone también fue director de la Agencia de Seguridad Nacional (NSA) antes de retirarse en febrero de 2024.

Unas semanas más tarde, el New York Times informó que, a principios del año pasado, un pirata informático obtuvo acceso a los sistemas de mensajería interna de OpenAI y robó detalles sobre el diseño de las tecnologías de inteligencia artificial de la empresa.

El pirata informático supuestamente tomó detalles de las discusiones en un foro en línea donde los empleados hablaban sobre las últimas tecnologías de OpenAI, según dos personas familiarizadas con el incidente, pero no entró en los sistemas donde la empresa aloja y construye su inteligencia artificial.

Según el NYT, los ejecutivos de OpenAI habían revelado el incidente al personal durante una reunión general en las oficinas de la empresa en San Francisco en abril de 2023 e informaron a su junta directiva.

Pero los ejecutivos decidieron no compartir la noticia públicamente porque no se había robado información sobre clientes o socios, dijeron las dos fuentes al NYT. Los ejecutivos no consideraron que el incidente fuera una amenaza para la seguridad nacional porque creían que el pirata informático era un particular sin vínculos conocidos con un gobierno extranjero.

OpenAI tampoco informó al FBI ni a ninguna otra agencia policial.

Seguridad de OpenAI

Después de la violación, Leopold Aschenbrenner, un gerente del programa técnico de OpenAI enfocado en garantizar que las futuras tecnologías de IA no causen daños graves, envió una nota a la junta directiva de OpenAI, argumentando que la compañía no estaba haciendo lo suficiente para evitar que el gobierno chino y otros adversarios extranjeros robaran sus secretos, informó el NYT.

Aschenbrenner luego alegó que OpenAI lo había despedido esta primavera por filtrar otra información fuera de la empresa y argumentó que su despido había tenido motivaciones políticas.

“Apreciamos las preocupaciones que Leopold planteó mientras estaba en OpenAI, y esto no llevó a su despido”, dijo una portavoz de OpenAI, Liz Bourgeois, al New York Times. Refiriéndose a los esfuerzos de la empresa por construir una inteligencia artificial general, una máquina que puede hacer todo lo que el cerebro humano puede hacer, agregó: “Si bien compartimos su compromiso de construir una IAG segura, no estamos de acuerdo con muchas de las afirmaciones que ha hecho desde entonces sobre nuestro trabajo. Esto incluye sus caracterizaciones de nuestra seguridad, en particular este incidente, que abordamos y compartimos con nuestra junta antes de que se uniera a la empresa”.

Esto ocurre después de que OpenAI dijera a principios de este año que había desbaratado cinco operaciones de influencia encubiertas que buscaban usar sus modelos de IA para “actividades engañosas” en Internet.

En mayo de 2024, OpenAI formó un comité de seguridad para supervisar la seguridad de las IA «superinteligentes» después de disolver su equipo de «superalineación» en medio de críticas sobre las prioridades . NetMedia, Inglaterra.TJ.Traducido al español

Comparte la nota:

Artículos relacionados

Scroll al inicio