Por Mark Zuckerberg, fundador y director ejecutivo
En los primeros tiempos de la informática de alto rendimiento, las principales empresas tecnológicas de la época invirtieron mucho en el desarrollo de sus propias versiones de código cerrado de Unix. En aquel momento era difícil imaginar que cualquier otro enfoque pudiera desarrollar un software tan avanzado. Sin embargo, con el tiempo, Linux de código abierto ganó popularidad, inicialmente porque permitía a los desarrolladores modificar su código como quisieran y era más asequible, y con el tiempo porque se volvió más avanzado, más seguro y tenía un ecosistema más amplio que admitía más capacidades que cualquier Unix cerrado. Hoy, Linux es la base estándar de la industria tanto para la computación en la nube como para los sistemas operativos que ejecutan la mayoría de los dispositivos móviles, y todos nos beneficiamos de productos superiores gracias a ello.
Creo que la IA se desarrollará de manera similar. Hoy en día, varias empresas tecnológicas están desarrollando modelos cerrados líderes, pero el código abierto está cerrando rápidamente la brecha. El año pasado, Llama 2 solo era comparable a una generación anterior de modelos que estaban detrás de la frontera. Este año, Llama 3 es competitivo con los modelos más avanzados y líder en algunas áreas. A partir del próximo año, esperamos que los futuros modelos de Llama se conviertan en los más avanzados de la industria. Pero incluso antes de eso, Llama ya es líder en apertura, modificabilidad y eficiencia de costos.
Hoy estamos dando los siguientes pasos para que la IA de código abierto se convierta en el estándar de la industria. Estamos lanzando Llama 3.1 405B, el primer modelo de IA de código abierto de nivel de frontera, así como los nuevos y mejorados modelos Llama 3.1 70B y 8B. Además de tener una relación costo/rendimiento significativamente mejor en relación con los modelos cerrados, el hecho de que el modelo 405B sea abierto lo convertirá en la mejor opción para ajustar y destilar modelos más pequeños.
Además de lanzar estos modelos, estamos trabajando con una variedad de empresas para hacer crecer el ecosistema más amplio. Amazon, Databricks y NVIDIA están lanzando paquetes completos de servicios para ayudar a los desarrolladores a ajustar y destilar sus propios modelos. Innovadores como Groq han creado servicios de inferencia de baja latencia y bajo costo para todos los nuevos modelos. Los modelos estarán disponibles en todas las nubes principales, incluidas AWS, Azure, Google, Oracle y más. Empresas como Scale.AI, Dell, Deloitte y otras están listas para ayudar a las empresas a adoptar Llama y entrenar modelos personalizados con sus propios datos. A medida que la comunidad crece y más empresas desarrollan nuevos servicios, podemos hacer de Llama el estándar de la industria y llevar los beneficios de la IA a todos.
Meta está comprometida con la IA de código abierto. Explicaré por qué creo que el código abierto es la mejor herramienta de desarrollo para ti, por qué la versión de código abierto de Llama es buena para Meta y por qué la IA de código abierto es buena para el mundo y, por lo tanto, una plataforma que permanecerá vigente a largo plazo.
Por qué la IA de código abierto es buena para los desarrolladores
Cuando hablo con desarrolladores, directores ejecutivos y funcionarios gubernamentales de todo el mundo, suelo escuchar varios temas:
- Necesitamos entrenar, ajustar y depurar nuestros propios modelos. Cada organización tiene diferentes necesidades que se satisfacen mejor con modelos de diferentes tamaños que se entrenan o ajustan con sus datos específicos. Las tareas en el dispositivo y las tareas de clasificación requieren modelos pequeños, mientras que las tareas más complicadas requieren modelos más grandes. Ahora podrá tomar los modelos Llama más avanzados, continuar entrenándolos con sus propios datos y luego destilarlos hasta obtener un modelo de su tamaño óptimo, sin que nosotros ni nadie más vea sus datos.
- Necesitamos controlar nuestro propio destino y no quedarnos atrapados en un proveedor cerrado. Muchas organizaciones no quieren depender de modelos que no pueden ejecutar ni controlar por sí mismas. No quieren que los proveedores de modelos cerrados puedan cambiar su modelo, alterar sus términos de uso o incluso dejar de prestarles servicios por completo. Tampoco quieren quedar atrapados en una única nube que tenga derechos exclusivos sobre un modelo. El código abierto permite un amplio ecosistema de empresas con cadenas de herramientas compatibles entre las que se puede pasar fácilmente.
- Necesitamos proteger nuestros datos. Muchas organizaciones manejan datos confidenciales que necesitan proteger y no pueden enviar a modelos cerrados a través de API en la nube. Otras organizaciones simplemente no confían sus datos a los proveedores de modelos cerrados. El código abierto aborda estos problemas al permitirle ejecutar los modelos donde quiera. Es un hecho ampliamente aceptado que el software de código abierto tiende a ser más seguro porque se desarrolla de manera más transparente.
- Necesitamos un modelo que sea eficiente y asequible de ejecutar. Los desarrolladores pueden ejecutar inferencias en Llama 3.1 405B en su propia infraestructura a aproximadamente el 50 % del costo de usar modelos cerrados como GPT-4o, tanto para tareas de inferencia de cara al usuario como fuera de línea.
- Queremos invertir en el ecosistema que será el estándar a largo plazo. Mucha gente ve que el código abierto avanza a un ritmo más rápido que los modelos cerrados y quieren construir sus sistemas sobre la arquitectura que les dará la mayor ventaja a largo plazo.
Por qué la IA de código abierto es buena para Meta
El modelo de negocio de Meta consiste en crear las mejores experiencias y servicios para las personas. Para ello, debemos asegurarnos de tener siempre acceso a la mejor tecnología y de no quedarnos encerrados en el ecosistema cerrado de un competidor que pueda restringir lo que construimos.
Una de mis experiencias formativas ha sido la de crear nuestros servicios con las limitaciones que Apple nos permite crear en sus plataformas. Entre la forma en que gravan a los desarrolladores, las reglas arbitrarias que aplican y todas las innovaciones de productos que impiden que se publiquen, está claro que Meta y muchas otras empresas tendrían más libertad para crear servicios mucho mejores para las personas si pudiéramos crear las mejores versiones de nuestros productos y los competidores no pudieran limitar lo que podíamos crear. A nivel filosófico, esta es una de las principales razones por las que creo tan firmemente en la creación de ecosistemas abiertos en IA y AR/VR para la próxima generación de la informática.
La gente a menudo me pregunta si me preocupa renunciar a una ventaja técnica al publicar Llama como código abierto, pero creo que esto no refleja el panorama general por algunas razones:
En primer lugar, para garantizar que tengamos acceso a la mejor tecnología y que no estemos atrapados en un ecosistema cerrado a largo plazo, Llama necesita convertirse en un ecosistema completo de herramientas, mejoras de eficiencia, optimizaciones de silicio y otras integraciones. Si fuéramos la única empresa que utiliza Llama, este ecosistema no se desarrollaría y no nos iría mejor que a las variantes cerradas de Unix.
En segundo lugar, espero que el desarrollo de la IA siga siendo muy competitivo, lo que significa que la apertura de código de cualquier modelo no supondrá una ventaja enorme sobre los siguientes mejores modelos en ese momento. El camino para que Llama se convierta en el estándar de la industria es ser consistentemente competitivo, eficiente y abierto generación tras generación.
En tercer lugar, una diferencia clave entre Meta y los proveedores de modelos cerrados es que vender el acceso a los modelos de IA no es nuestro modelo de negocio. Eso significa que publicar Llama abiertamente no socava nuestros ingresos, nuestra sostenibilidad o nuestra capacidad de invertir en investigación como sí ocurre con los proveedores cerrados (esta es una de las razones por las que varios proveedores cerrados presionan constantemente a los gobiernos contra el código abierto).
Por último, Meta tiene una larga trayectoria de proyectos y éxitos de código abierto. Hemos ahorrado miles de millones de dólares al publicar nuestros diseños de servidores, redes y centros de datos con Open Compute Project y al lograr que las cadenas de suministro se estandarizaran en nuestros diseños. Nos beneficiamos de las innovaciones del ecosistema al abrir el código fuente de herramientas líderes como PyTorch, React y muchas más. Este enfoque ha funcionado de manera constante para nosotros cuando lo mantenemos a largo plazo.
Por qué la IA de código abierto es buena para el mundo
Creo que el código abierto es necesario para un futuro positivo de la IA. La IA tiene más potencial que cualquier otra tecnología moderna para aumentar la productividad, la creatividad y la calidad de vida de las personas, y para acelerar el crecimiento económico, al tiempo que se impulsa el progreso en la investigación médica y científica. El código abierto garantizará que más personas en todo el mundo tengan acceso a los beneficios y oportunidades de la IA, que el poder no se concentre en manos de un pequeño número de empresas y que la tecnología pueda implementarse de manera más uniforme y segura en toda la sociedad.
Existe un debate en curso sobre la seguridad de los modelos de IA de código abierto, y mi opinión es que la IA de código abierto será más segura que las alternativas. Creo que los gobiernos llegarán a la conclusión de que les conviene apoyar el código abierto porque hará que el mundo sea más próspero y más seguro.
Mi marco de referencia para entender la seguridad es que necesitamos protegernos contra dos categorías de daño: intencional y no intencional. El daño no intencional es cuando un sistema de IA puede causar daño incluso cuando no era la intención de quienes lo manejan hacerlo. Por ejemplo, los modelos de IA modernos pueden dar inadvertidamente malos consejos de salud. O, en escenarios más futuristas, a algunos les preocupa que los modelos puedan autorreplicarse involuntariamente o hiperoptimizar objetivos en detrimento de la humanidad. El daño intencional es cuando un mal actor usa un modelo de IA con el objetivo de causar daño.
Vale la pena señalar que el daño involuntario cubre la mayoría de las preocupaciones que las personas tienen en torno a la IA, que van desde la influencia que tendrán los sistemas de IA en los miles de millones de personas que los usarán hasta la mayoría de los escenarios de ciencia ficción verdaderamente catastróficos para la humanidad. En este frente, el código abierto debería ser significativamente más seguro, ya que los sistemas son más transparentes y pueden ser examinados ampliamente. Históricamente, el software de código abierto ha sido más seguro por esta razón. De manera similar, el uso de Llama con sus sistemas de seguridad como Llama Guard probablemente será más seguro y más seguro que los modelos cerrados. Por esta razón, la mayoría de las conversaciones sobre la seguridad de la IA de código abierto se centran en el daño intencional.
Nuestro proceso de seguridad incluye pruebas rigurosas y la participación de equipos de expertos para evaluar si nuestros modelos son capaces de causar daños significativos, con el objetivo de mitigar los riesgos antes de su lanzamiento. Dado que los modelos son abiertos, cualquiera puede realizar pruebas por sí mismo también. Debemos tener en cuenta que estos modelos se entrenan con información que ya está en Internet, por lo que el punto de partida al considerar el daño debe ser si un modelo puede causar más daño que la información que se puede recuperar rápidamente de Google u otros resultados de búsqueda.
Al razonar sobre el daño intencional, es útil distinguir entre lo que los actores individuales o de pequeña escala pueden hacer, en oposición a lo que los actores de gran escala, como los estados nacionales con vastos recursos, pueden hacer.
En algún momento del futuro, los actores maliciosos individuales podrán usar la inteligencia de los modelos de IA para fabricar daños completamente nuevos a partir de la información disponible en Internet. En este punto, el equilibrio de poder será fundamental para la seguridad de la IA. Creo que será mejor vivir en un mundo donde la IA se implemente ampliamente para que los actores más grandes puedan controlar el poder de los actores maliciosos más pequeños. Así es como hemos gestionado la seguridad en nuestras redes sociales: nuestros sistemas de IA más robustos identifican y detienen las amenazas de actores menos sofisticados que a menudo usan sistemas de IA de menor escala. En términos más generales, las instituciones más grandes que implementen IA a gran escala promoverán la seguridad y la estabilidad en toda la sociedad. Mientras todos tengan acceso a generaciones similares de modelos (algo que promueve el código abierto), los gobiernos y las instituciones con más recursos informáticos podrán controlar a los actores maliciosos con menos recursos informáticos.
La siguiente pregunta es cómo deben manejar Estados Unidos y las naciones democráticas la amenaza de estados con recursos masivos como China. La ventaja de Estados Unidos es la innovación descentralizada y abierta. Algunos sostienen que debemos cerrar nuestros modelos para impedir que China tenga acceso a ellos, pero mi opinión es que eso no funcionará y sólo perjudicará a Estados Unidos y sus aliados. Nuestros adversarios son muy buenos espiando, robar modelos que caben en una memoria USB es relativamente fácil y la mayoría de las empresas tecnológicas están lejos de operar de una manera que lo haga más difícil. Parece más probable que un mundo de sólo modelos cerrados resulte en que un pequeño número de grandes empresas más nuestros adversarios geopolíticos tengan acceso a los modelos líderes, mientras que las empresas emergentes, las universidades y las pequeñas empresas pierden oportunidades. Además, restringir la innovación estadounidense al desarrollo cerrado aumenta la posibilidad de que no seamos líderes en absoluto. En cambio, creo que nuestra mejor estrategia es construir un ecosistema abierto sólido y hacer que nuestras empresas líderes trabajen en estrecha colaboración con nuestro gobierno y nuestros aliados para garantizar que puedan aprovechar al máximo los últimos avances y lograr una ventaja sostenible de pioneros en el largo plazo.
Cuando considere las oportunidades que tiene por delante, recuerde que la mayoría de las empresas tecnológicas y de investigación científica líderes de la actualidad se basan en software de código abierto. La próxima generación de empresas e investigaciones utilizará inteligencia artificial de código abierto si invertimos colectivamente en ella. Eso incluye a las empresas emergentes que recién están despegando, así como a las personas en universidades y países que tal vez no tengan los recursos para desarrollar su propia inteligencia artificial de última generación desde cero.
La conclusión es que la IA de código abierto representa la mejor oportunidad del mundo para aprovechar esta tecnología para crear la mayor oportunidad económica y seguridad para todos.
Construyamos esto juntos
Con los modelos Llama anteriores, Meta los desarrolló para sí mismo y luego los lanzó, pero no se centró mucho en crear un ecosistema más amplio. Con este lanzamiento, estamos adoptando un enfoque diferente. Estamos formando equipos internamente para permitir que la mayor cantidad posible de desarrolladores y socios utilicen Llama, y estamos creando activamente alianzas para que más empresas del ecosistema también puedan ofrecer funcionalidades únicas a sus clientes.
Creo que el lanzamiento de Llama 3.1 será un punto de inflexión en la industria, donde la mayoría de los desarrolladores comenzarán a utilizar principalmente código abierto, y espero que ese enfoque siga creciendo a partir de ahora. Espero que nos acompañes en este viaje para llevar los beneficios de la IA a todas las personas del mundo.
Puedes acceder a los modelos ahora en llama.meta.com .
💪,
MZ
META News. Traducido al español