
El futuro de la IA: creado con Llama
El crecimiento de Llama, nuestro modelo de lenguaje abierto de gran tamaño, fue exponencial este año gracias a un ritmo acelerado de innovación y al enfoque abierto que adoptamos para compartir actualizaciones con la comunidad de IA. Comida para llevar Un año increíble para Llama El crecimiento de Llama, nuestro modelo de lenguaje abierto de gran tamaño, fue exponencial este año gracias a un ritmo acelerado de innovación y al enfoque abierto que adoptamos para compartir actualizaciones con la comunidad de IA. Comenzamos el año con la presentación de Llama 3 , la próxima generación de nuestro modelo de lenguaje abierto de gran tamaño de última generación. A eso le siguió en julio Llama 3.1 , que incluyó el lanzamiento de 405B, el primer modelo de IA abierto de nivel de frontera. Siguiendo el ritmo de la innovación, anunciamos Llama 3.2 en Connect 2024, compartiendo nuestros primeros modelos multimodales, así como modelos pequeños y medianos y livianos, de solo texto que se adaptan a dispositivos móviles y de borde. Y para cerrar el año, lanzamos Llama 3.3 70B , un modelo de solo texto que ofrece un rendimiento similar al 3.1 405B a una fracción del costo de servicio. Como compartió el fundador y director ejecutivo de Meta, Mark Zuckerberg , Llama se ha convertido rápidamente en el modelo más adoptado, con más de 650 millones de descargas de Llama y sus derivados, el doble de descargas que hace tres meses. Poniendo eso en perspectiva, los modelos de Llama ahora se han descargado un promedio de un millón de veces al día desde nuestro primer lanzamiento en febrero de 2023. Satisfacer la creciente demanda de Llama no sería posible sin la lista de socios que tenemos en todo el ecosistema de hardware y software, incluidos Amazon Web Services (AWS), AMD, Microsoft Azure, Databricks, Dell, Google Cloud, Groq, NVIDIA, IBM watsonx, Oracle Cloud, ScaleAI, Snowflake y más. Este creciente conjunto de socios representa lo mejor del ecosistema de tecnología de IA y garantiza que Llama esté optimizado para ejecutarse en prácticamente cualquier entorno y en cualquier forma, incluso en el dispositivo y en las instalaciones, así como en las API de servicios administrados de nuestros socios de la nube. El uso de Llama por volumen de tokens mensual ha seguido haciendo un gran progreso, con un volumen de tokens mensual en socios de la nube clave que creció más del 50 % mes a mes en septiembre. Fuera de los EE. UU., Llama se convirtió en un fenómeno global este año, con un crecimiento impresionante y un gran interés por nuestros modelos por parte de desarrolladores de todo el mundo y un ritmo acelerado de adopción con el lanzamiento de nuestra colección de modelos Llama 3. Las aprobaciones de licencias de Llama se han más que duplicado en los últimos seis meses en general, con un crecimiento notable en los mercados emergentes y un aumento de las descargas en América Latina, la región de Asia-Pacífico y Europa. Más allá de la gran demanda de Llama, nos ha entusiasmado ver el éxito que han tenido nuestros socios este año al reiterar nuestro trabajo. La comunidad de código abierto ha publicado más de 85 000 derivados de Llama solo en Hugging Face, un aumento de más de 5 veces en comparación con el comienzo del año. Esta participación y las contribuciones de la comunidad han ayudado a impulsar las decisiones de productos en Meta que informan mejor nuestra próxima ola de modelos y funciones fundamentales para lanzar dentro de Meta AI y, en última instancia, volver a la comunidad. Creciente adopción por parte de empresas y gobiernos A medida que más personas recurren a nuestros modelos abiertos, hemos lanzado nuevas funciones que hacen que la creación con Llama sea una experiencia más estandarizada. Este año, desarrollamos Llama Stack , una interfaz para componentes de la cadena de herramientas canónica para personalizar los modelos de Llama y crear aplicaciones con agentes. Creemos que ofrecer la mejor herramienta simplificada para la creación con Llama solo acelerará la increíble adopción que ya hemos presenciado en todos los sectores. Basándonos en nuestra trayectoria de asociación para promover la innovación en IA abierta, trabajamos con IBM para ofrecer Llama como parte de su catálogo de modelos watsonx.AI , un estudio empresarial de última generación para desarrolladores de IA de todo el mundo para entrenar, validar, ajustar e implementar modelos de IA. Esta asociación con IBM significa que Llama ya está siendo utilizado por gobiernos locales, importantes empresas de telecomunicaciones e incluso por un equipo de fútbol profesional para ayudar a identificar posibles nuevos reclutas. Block está integrando Llama en los sistemas de atención al cliente detrás de Cash App. Como Llama es de código abierto, la empresa puede experimentar y personalizar rápidamente el modelo para cada uno de sus casos de uso, al tiempo que le permite preservar la privacidad de los datos de sus clientes. Accenture recurrió a Llama en 2024 cuando recibió una solicitud de un importante organismo intergubernamental para crear un chatbot que sería la primera aplicación de inteligencia artificial generativa de gran escala y de cara al público de la organización. Creado con Llama 3.1, el chatbot funciona en AWS y emplea varias herramientas y servicios durante la personalización y la inferencia para garantizar la escalabilidad y la solidez. Spotify utiliza Llama para ofrecer recomendaciones contextualizadas que impulsen el descubrimiento de artistas y creen una experiencia de usuario aún más rica. Al combinar el amplio conocimiento y la versatilidad de Llama con la profunda experiencia de Spotify en contenido de audio, Spotify ha creado explicaciones que ofrecen a los usuarios información personalizada sobre el contenido recomendado. El equipo también ha creado una forma para que sus suscriptores reciban narraciones personalizadas sobre los nuevos lanzamientos recomendados y comentarios culturalmente relevantes de sus DJ de IA que hablan inglés y español. LinkedIn compartió recientemente Liger-Kernel, una biblioteca de código abierto diseñada para permitir una capacitación más eficiente de los LLM. Basándose en esta infraestructura escalable, LinkedIn exploró una variedad de LLM para ajustarlos a tareas específicas de su red social. Para algunas aplicaciones, descubrieron que Llama logró