Nuestro último libro blanco explora cómo la proliferación y evolución de los modelos generativos transformará el panorama de la IA y desbloqueará el valor
Resumen ejecutivo
La introducción de DeepSeek R1, un modelo de IA de razonamiento de vanguardia, ha causado ondas en toda la industria tecnológica. Esto se debe a que su rendimiento está a la par o mejor que las alternativas de vanguardia, lo que interrumpe la sabiduría convencional en torno al desarrollo de la IA.
Este momento crucial es parte de una tendencia más amplia que subraya la innovación en la creación de modelos de razonamiento multimodal y lenguaje pequeño de alta calidad, y cómo están preparando IA para aplicaciones comerciales e inferencia en el dispositivo. El hecho de que estos nuevos modelos puedan ejecutarse en dispositivos acelera la escala y crea demanda de chips potentes en el borde.
Impulsar este cambio son cuatro tendencias principales que conducen a una mejora dramática en la calidad, el rendimiento y la eficiencia de los modelos de IA que ahora pueden ejecutarse en el dispositivo:
- Los modelos de IA más pequeños de última generación de hoy en día tienen un rendimiento superior. Las nuevas técnicas como la destilación de modelos y las nuevas arquitecturas de red AI simplifican el proceso de desarrollo sin sacrificar la calidad, lo que permite que los nuevos modelos superen a los más grandes de hace un año, que solo podrían operar en la nube.
- Los tamaños de los modelos están disminuyendo rápidamente. Las técnicas de cuantificación y poda de vanguardia permiten a los desarrolladores reducir el tamaño de los modelos sin impacto material en la precisión.
- Los desarrolladores tienen más con qué trabajar. La rápida proliferación de modelos de IA de alta calidad significa que características como el resumen de texto, los asistentes de codificación y la traducción en vivo son comunes en dispositivos como teléfonos inteligentes, lo que hace que la IA esté lista para aplicaciones comerciales a gran escala.
- AI se está convirtiendo en la nueva interfaz de usuario. Los agentes de IA multimodales personalizados simplificarán las interacciones y completarán las tareas de manera competente en varias aplicaciones.
Qualcomm Technologies está estratégicamente posicionada para liderar y capitalizar la transición de la capacitación en IA a la inferencia a gran escala, así como la expansión del procesamiento computacional de IA desde la nube hasta el borde. La compañía tiene una amplia trayectoria en el desarrollo de unidades de procesamiento central personalizadas (CPU), unidades de procesamiento neuronal (NPU), unidades de procesamiento de gráficos (GPU) y subsistemas de baja potencia. La colaboración de la compañía con los fabricantes de modelos, junto con herramientas, marcos y SDK para implementar modelos en varios segmentos de dispositivos de borde, permite a los desarrolladores acelerar la adopción de agentes y aplicaciones de IA en el borde.
La reciente interrupción y reevaluación de cómo se entrenan los modelos de IA valida el inminente cambio del panorama de la IA hacia la inferencia a gran escala. Creará un nuevo ciclo de innovación y actualización de la computación de inferencia en el borde. Si bien la capacitación continuará en la nube, la inferencia se beneficiará de la escala de dispositivos que se ejecutan en la tecnología Qualcomm y creará demanda de más procesadores habilitados para IA en el borde. Qualcomm Blog. D. M. y J. Ch. Traducido al español