El Portal de las Tecnologías para la Innovación

Los modelos destilados de DeepSeek R1 ahora están disponibles en watsonx.ai

Las variantes destiladas Llama 3.1 8B y Llama 3.3 70b de DeepSeek-R1 ahora están disponibles en  watsonx.ai , el estudio de desarrollo de inteligencia artificial de nivel empresarial de IBM.

¿Qué es DeepSeek-R1?

DeepSeek-R1 , el modelo de aprendizaje de razonamiento de la empresa china de inteligencia artificial DeepSeek, es uno de los modelos de código abierto más potentes del mundo y rivaliza con las capacidades del o1 de OpenAI. Publicado bajo la licencia MIT, DeepSeek-R1 se desarrolló principalmente mediante el uso directo del aprendizaje de refuerzo (RL) en el modelo base DeepSeek-V3, una innovación importante en el ajuste fino de los modelos de aprendizaje de razonamiento.

DeepSeek también utilizó una técnica llamada destilación de conocimiento para ajustar con precisión varios modelos Llama y Qwen utilizando los datos generados por el modelo R1, mucho más grande. Los usuarios pueden acceder a los modelos destilados de DeepSeek en watsonx.ai de dos maneras:

¿Qué tipos de casos de uso permite DeepSeek-R1?

DeepSeek-R1 es un modelo de IA avanzado reconocido por sus excepcionales capacidades de razonamiento, que permiten una amplia gama de aplicaciones en diversas industrias:

  • Planificación : el enfoque de DeepSeek-R1 en la lógica de cadena de pensamiento le permite realizar tareas que requieren razonamiento paso a paso, lo que lo hace ideal para impulsar aplicaciones de agencia.
  • Codificación : DeepSeek-R1 se destaca en tareas de codificación, brindando generación de código, asistencia de depuración y sugerencias de optimización.
  • Resolución de problemas matemáticos : las fuertes capacidades de razonamiento del modelo lo hacen experto en la resolución de problemas matemáticos complejos, lo que resulta beneficioso en la investigación académica, la ingeniería y los cálculos científicos.  

Los desarrolladores pueden crear soluciones de IA dentro de IBM watsonx.ai utilizando modelos implementados como DeepSeek-R1 y capacidades de solución que:

  • Pruebe y evalúe los resultados del modelo en un formato y una interfaz de usuario de fácil comprensión.
  • Cree una canalización RAG conectándose a varias bases de datos vectoriales e incorporando modelos
  • Trabaje con marcos y conectores populares como LangChain, CrewAI y más

¿Por qué utilizar modelos destilados de DeepSeek en watsonx.ai?

IBM watsonx.ai permite a los clientes personalizar la implementación de modelos de código abierto como DeepSeek-R1, desde una flexibilidad total de los entornos de implementación hasta flujos de trabajo intuitivos para el desarrollo de agentes, el ajuste fino, RAG, la ingeniería rápida y la integración con aplicaciones empresariales . Los usuarios pueden aprovechar las barandillas integradas de watsonx.ai para proteger sus aplicaciones.

Por supuesto, la seguridad de los datos y la gobernanza de la IA son las principales preocupaciones de nuestros clientes. Además de las barreras de protección, cuando se implementan en watsonx.ai, estos modelos se convierten en instancias dedicadas, lo que significa que no se comparten datos en ningún otro lugar más allá de la plataforma. Además, la integración perfecta con IBM watsonx.governance , un potente kit de herramientas de gobernanza, riesgo y cumplimiento (GRC), garantiza que su IA sea responsable, transparente y explicable durante todo el ciclo de vida de la IA.

Introducción a DeepSeek en IBM watsonx.ai

La compatibilidad con las variantes simplificadas de DeepSeek-R1 forma parte del compromiso de IBM con la innovación de código abierto en IA. Ambos modelos simplificados de DeepSeek Llama están disponibles como parte del catálogo Deploy on Demand en IBM watsonx.ai y pueden implementarse cada hora en una GPU dedicada.

Implementación de modelos R1 a pedido desde el centro de recursos de Watsonx

Para implementar un modelo de base a pedido desde el centro de recursos , complete los siguientes pasos:

1. Abra el Centro de recursos desde el Menú de navegación.

2. En la sección Pagar por hora, busque el modelo DeepSeek que desea implementar a pedido.

Estas imágenes de captura de pantalla del producto Watsonx se utilizarán para un anuncio en una publicación de blog.

3. Desde la página de detalles del modelo, haga clic en Implementar .

Estas imágenes de captura de pantalla del producto Watsonx se utilizarán para un anuncio en una publicación de blog.

4. Haga clic en Implementar desde el mosaico del modelo de base y, a continuación, elija el espacio de implementación donde desea que se implemente el modelo de base.

5. Haga clic en Crear .

Estas imágenes de captura de pantalla del producto Watsonx se utilizarán para un anuncio en una publicación de blog.

6. Comience a utilizar el modelo a través de Prompt Lab o mediante API/SDK:

Estas imágenes de captura de pantalla del producto Watsonx se utilizarán para un anuncio en una publicación de blog.

Watsonx.ai muestra el proceso de pensamiento del modelo en cursiva y el resultado final en cursiva. Como puede ver, con una indicación simple, el modelo razona y planifica las distintas secciones que deben incluirse en su respuesta.

Implementación de modelos R1 en watsonx a través de la API REST

Alternativamente, también puedes usar la API REST para implementar el modelo :

1. Creación de un activo modelo:

curl -X POST "https://<URL del clúster>/ml/v4/models?version=2024-01-29" \ 
-H "Autorización: Portador <reemplazar con su token>" \
-H "tipo-contenido: aplicación/json" \
--data '{     "tipo": "curated_foundation_model_1.0",     "versión": "1.0",     "nombre": "deepseek",     "espacio_id": "<Id. de espacio para la implementación>",     "fundación_modelo": {     "modelo_id": "deepseek-ai/deepSeek-r1-distill-llama-8b-curated"     } }'






Mostrar más

2. Creación de una implementación para un modelo de base a pedido: 

curl -X POST "https://<URL del clúster>/ml/v4/deployments?version=2024-01-29" \ 
-H "Autorización: Bearer <reemplace con su token>" \
-H "content-type: application/json" \
--data '{     "asset": {         "id": <Id. del activo creado>     },     "online": {         "parameters": {             "serving_name": "llama"       }     },   "description": "<Descripción>,   "name": "mi",   "space_id": <Id. del espacio para la implementación>  }'










Mostrar más

Por supuesto, debes reemplazar información como el token del portador y el identificador del espacio con las credenciales adecuadas. Una vez implementado el modelo, puedes solicitar el modelo de base desde Prompt Lab o la API de watsonx.ai.

Al brindarles a los usuarios acceso a los mejores modelos abiertos de su clase en watsonx.ai , incluidos los de terceros y IBM Granite , nuestro objetivo es fomentar una cultura de colaboración e intercambio de conocimientos.

Pruebe los modelos destilados de DeepSeek-R1 en watsonx.ai™ →

IBM Blog. M. A., A. R y N. P. Traducido al español

Artículos relacionados

Scroll al inicio