El Portal de las Tecnologías para la Innovación

Compartiendo las últimas especificaciones del modelo

Hemos realizado actualizaciones a las especificaciones del modelo en función de los comentarios externos y nuestra investigación continua para dar forma al comportamiento deseado del modelo.

Estamos compartiendo una importante actualización de la especificación del modelo, un documento que define cómo queremos que se comporten nuestros modelos de IA. Esta actualización refuerza nuestro compromiso con la personalización, la transparencia y la libertad intelectual para explorar, debatir y crear con IA sin restricciones arbitrarias, al tiempo que garantiza que se mantengan las barreras de seguridad para reducir el riesgo de daño real. Se basa en las bases que presentamos en mayo pasado y se basa en nuestra experiencia al aplicarla en diversos contextos, desde la investigación de alineación hasta la atención a usuarios de todo el mundo. 

También estamos compartiendo algunos resultados preliminares sobre la adherencia del modelo a los principios de la especificación del modelo en una amplia gama de escenarios. Estos hallazgos destacan el progreso a lo largo del tiempo, así como las áreas en las que aún podemos mejorar. La especificación del modelo, al igual que nuestros modelos, seguirá evolucionando a medida que la apliquemos, la compartamos y escuchemos los comentarios de las partes interesadas. Para respaldar un uso y una colaboración amplios, estamos lanzando esta versión de la especificación del modelo al dominio público bajo una licencia Creative Commons CC0. Esto significa que los desarrolladores e investigadores pueden usarla, adaptarla y desarrollarla libremente en su propio trabajo.

Objetivos y principios

El objetivo de OpenAI es crear modelos que sean útiles, seguros y estén alineados con las necesidades de los usuarios y desarrolladores, al tiempo que avanzamos en nuestra misión de garantizar que la inteligencia artificial general beneficie a toda la humanidad. Para lograr este objetivo, necesitamos implementar de forma iterativa modelos que empoderen a los desarrolladores y usuarios, al mismo tiempo que evitamos que nuestros modelos causen daños graves a nuestros usuarios o a otras personas, y mantenemos la licencia de funcionamiento de OpenAI.

Estos objetivos a veces pueden entrar en conflicto, y la especificación del modelo equilibra las compensaciones entre ellos al indicarle al modelo que siga una cadena de mando claramente definida, junto con principios adicionales que establecen límites y comportamientos predeterminados para varios escenarios . Este marco prioriza el control del usuario y del desarrollador sin salirse de límites claros y bien definidos:

  • Cadena de mando: define cómo el modelo prioriza las instrucciones de la plataforma (OpenAI), el desarrollador y el usuario en orden. La mayor parte de la especificación del modelo consta de pautas que creemos que son útiles en muchos casos, pero que los usuarios y desarrolladores pueden anular. Esto permite a los usuarios y desarrolladores personalizar por completo el comportamiento del modelo dentro de los límites establecidos por las reglas a nivel de la plataforma. 
  • Busquemos la verdad juntos: como un asistente humano de alta integridad, nuestros modelos deben permitir a los usuarios tomar sus propias decisiones. Esto implica un equilibrio cuidadoso entre (1) evitar guiar a los usuarios con una agenda, optar por la objetividad y estar dispuestos a explorar cualquier tema desde cualquier perspectiva, y (2) trabajar para comprender los objetivos del usuario, aclarar suposiciones y detalles inciertos y brindar comentarios críticos cuando sea apropiado, solicitudes que hemos escuchado y que hemos mejorado.
  • Hacer el mejor trabajo: establece estándares básicos de competencia, incluida la precisión factual, la creatividad y el uso programático.
  • Respetar los límites: explica cómo el modelo equilibra la autonomía del usuario con las precauciones para evitar facilitar daños o abusos. Esta nueva versión pretende ser integral y cubrir por completo todos los motivos por los que pretendemos que nuestros modelos rechacen las solicitudes de los usuarios o desarrolladores.
  • Sea accesible: describe el estilo de conversación predeterminado del modelo (cálido, empático y servicial) y cómo se puede adaptar este estilo.
  • Utilice un estilo adecuado: proporciona una guía predeterminada sobre el formato y la presentación. Ya sean viñetas claras, fragmentos de código concisos o una conversación de voz, nuestro objetivo es garantizar la claridad y la facilidad de uso.

Defendiendo la libertad intelectual

La especificación del modelo actualizada adopta explícitamente la libertad intelectual (la idea de que la IA debe permitir a las personas explorar, debatir y crear sin restricciones arbitrarias), sin importar cuán desafiante o controvertido pueda ser un tema. En un mundo donde las herramientas de IA están moldeando cada vez más el discurso, el libre intercambio de información y perspectivas es una necesidad para el progreso y la innovación.

Esta filosofía está incorporada en las secciones “Mantenerse dentro de los límites” y “Buscar la verdad juntos”. Por ejemplo, si bien el modelo nunca debe proporcionar instrucciones detalladas para construir una bomba o violar la privacidad personal, se alienta a proporcionar respuestas reflexivas a preguntas política o culturalmente sensibles, sin promover ninguna agenda en particular. En esencia, hemos reforzado el principio de que ninguna idea está inherentemente fuera de los límites para la discusión, siempre y cuando el modelo no esté causando un daño significativo al usuario o a otras personas (por ejemplo, llevando a cabo actos de terrorismo).

Medición del progreso

Para comprender mejor el rendimiento en el mundo real, hemos comenzado a recopilar un conjunto de indicaciones desafiantes diseñadas para probar qué tan bien los modelos se adhieren a cada principio en la especificación del modelo. Estas indicaciones se crearon utilizando una combinación de generación de modelos y revisión humana experta, lo que garantiza la cobertura de escenarios típicos y más complejos.

Un gráfico de barras con barras blancas y amarillas alternadas sobre un fondo negro que representan comparaciones de datos. Las barras amarillas tienen un patrón de puntos que agrega textura a la presentación visual.

Los resultados preliminares muestran mejoras significativas en la adherencia del modelo a la especificación del modelo en comparación con nuestro mejor sistema del pasado mes de mayo. Si bien parte de esta diferencia puede atribuirse a actualizaciones de políticas, creemos que la mayor parte se debe a una mejor alineación. Si bien el progreso es alentador, reconocemos que todavía hay un margen significativo para el crecimiento.

Consideramos que esto es el comienzo de un proceso en curso. Tenemos previsto seguir ampliando nuestro conjunto de desafíos con nuevos ejemplos (especialmente casos descubiertos a través del uso en el mundo real) que nuestros modelos y la especificación del modelo aún no abordan por completo. 

Al darle forma a esta versión de la especificación del modelo, incorporamos los comentarios de la primera versión, así como los aprendizajes de la investigación sobre la alineación y la implementación en el mundo real. En el futuro, queremos considerar una participación pública mucho más amplia. Para desarrollar procesos con ese fin, hemos estado realizando estudios piloto con alrededor de 1000 personas, cada una de las cuales revisó el comportamiento del modelo, propuso reglas y compartió sus opiniones. Si bien estos estudios aún no reflejan perspectivas amplias, los primeros conocimientos informaron directamente algunas modificaciones. Reconocemos que se trata de un proceso continuo e iterativo y seguimos comprometidos con el aprendizaje y el perfeccionamiento de nuestro enfoque.

Código abierto de la especificación del modelo

Estamos dedicando esta nueva versión de la especificación del modelo al dominio público bajo una licencia Creative Commons CC0. Esto significa que los desarrolladores e investigadores pueden usar, adaptar o desarrollar libremente la especificación del modelo en su propio trabajo. También estamos haciendo pública la fuente de las indicaciones de evaluación utilizadas anteriormente y tenemos como objetivo publicar más código, artefactos y herramientas para la evaluación y alineación de especificaciones en el futuro.

Puede encontrar estas indicaciones y la fuente de la especificación del modelo en un nuevo repositorio de Github . (se abre en una nueva ventana), donde planeamos publicar regularmente nuevas versiones de especificaciones del modelo en el futuro.

¿Que sigue?

A medida que nuestros sistemas de IA avancen, continuaremos iterando sobre estos principios, invitando a la comunidad a que nos dé su opinión y compartiendo abiertamente nuestro progreso. De ahora en adelante, no publicaremos entradas de blog para cada actualización de la especificación del modelo. En cambio, siempre puedes encontrar y seguir las últimas actualizaciones en model-spec.openai.com ⁠(se abre en una nueva ventana).

Nuestro objetivo es habilitar continuamente nuevos casos de uso de forma segura, evolucionando nuestro enfoque guiado por la investigación y la innovación constantes. El papel cada vez mayor de la IA en nuestra vida diaria hace que sea esencial seguir aprendiendo, refinando y participando abiertamente. Este enfoque refleja no solo lo que hemos aprendido hasta ahora, sino también nuestra creencia de que alinear la IA es un viaje continuo, en el que esperamos que nos acompañe. Si tiene comentarios sobre esta especificación, puede compartirlos aquí . OpenAI News. Traducido al español

Artículos relacionados

Scroll al inicio