Los modelos Gemini de Google pronto estarán disponibles en las instalaciones con Google Distributed Cloud ejecutándose con NVIDIA Confidential Computing en la infraestructura de NVIDIA Blackwell.
NVIDIA está colaborando con Google Cloud para IA Agentic a las empresas que buscan aprovechar localmente la familia de modelos de IA Google Gemini utilizando el NVIDIA Blackwell HGX y DGX plataformas y NVIDIA Computación Confidencial para la seguridad de los datos.
Con el NVIDIA Blackwell plataforma en Google Distributed Cloud, los centros de datos locales pueden mantenerse alineados con los requisitos reglamentarios y las leyes de soberanía de datos al bloquear el acceso a información confidencial, como registros de pacientes, transacciones financieras e información gubernamental clasificada. NVIDIA Confidential Computing también protege el código sensible en los modelos Gemini del acceso no autorizado y las fugas de datos.
“Al llevar nuestros modelos Gemini a las instalaciones con el rendimiento innovador de NVIDIA Blackwell y las capacidades informáticas confidenciales, estamos permitiendo a las empresas desbloquear todo el potencial de la IA agentica,” dijo Sachin Gupta, vicepresidente y gerente general de infraestructura y soluciones en Google Cloud. “Esta colaboración ayuda a garantizar que los clientes puedan innovar de forma segura sin comprometer el rendimiento o la facilidad operativa
La computación confidencial con NVIDIA Blackwell proporciona a las empresas la garantía técnica de que sus solicitudes de usuario a la interfaz de programación de aplicaciones Gemini models’ —, así como los datos que utilizaron para ajustar — permanecen seguros y no se pueden ver ni modificar.
Al mismo tiempo, los propietarios de modelos pueden protegerse contra el acceso no autorizado o la manipulación, proporcionando protección de doble capa que permite a las empresas innovar con los modelos Gemini mientras mantienen la privacidad de los datos.
Agentes de IA que Impulsan Nuevas Aplicaciones Empresariales
Esta nueva oferta llega cuando la IA agentic está transformando la tecnología empresarial, ofreciendo capacidades de resolución de problemas más avanzadas.
A diferencia de los modelos de IA que perciben o generan basados en el conocimiento aprendido, los sistemas de IA agentic pueden razonar, adaptarse y tomar decisiones en entornos dinámicos. Por ejemplo, en el soporte de TI empresarial, mientras que un modelo de IA basado en el conocimiento puede recuperar y presentar guías de solución de problemas, un sistema de IA agentic puede diagnosticar problemas, ejecutar correcciones y escalar problemas complejos de forma autónoma.
Del mismo modo, en finanzas, un modelo tradicional de IA podría marcar transacciones potencialmente fraudulentas basadas en patrones, pero un sistema de IA agentic podría ir aún más lejos investigando anomalías y tomando medidas proactivas como bloquear transacciones antes de que ocurran o ajustar las reglas de detección de fraude en tiempo real.
El Dilema On-Premises
Si bien muchos ya pueden usar los modelos con razonamiento multimodal — integrando texto, imágenes, código y otros tipos de datos para resolver problemas complejos y crear aplicaciones de IA agentic basadas en la nube — aquellos con estrictos requisitos de seguridad o soberanía de datos aún no han podido hacerlo.
Con este anuncio, Google Cloud será uno de los primeros proveedores de servicios en la nube en ofrecer capacidades informáticas confidenciales para asegurar las cargas de trabajo de IA agentic en todos los entornos — ya sea en la nube o híbrido.
Impulsada por la plataforma NVIDIA HGX B200 con GPU Blackwell y NVIDIA Confidential Computing, esta solución permitirá a los clientes salvaguardar los modelos y datos de IA. Esto permite a los usuarios lograr un rendimiento innovador y eficiencia energética sin comprometer la seguridad de los datos o la integridad del modelo.
Observabilidad y Seguridad de la IA para la IA Agéntica
La escala de IA agentic en producción requiere una observabilidad y seguridad robustas para garantizar un rendimiento y cumplimiento confiables.
Google Cloud anunció hoy un nuevo GKE Inference Gateway creado para optimizar la implementación de cargas de trabajo de inferencia de IA con enrutamiento y escalabilidad avanzados. Al integrarse con NVIDIA Triton Inference Server y NVIDIA NeMo Guardrails, ofrece un equilibrio de carga inteligente que mejora el rendimiento y reduce los costos de servicio al tiempo que permite la seguridad y el gobierno centralizados del modelo.
Mirando hacia el futuro, Google Cloud está trabajando para mejorar la observabilidad de las cargas de trabajo de IA agentic mediante la integración Dynamo NVIDIA, una biblioteca de código abierto construida para servir y escalar modelos de IA de razonamiento en fábricas de IA.
En Google Cloud Siguiente, asista a la dirección especial de NVIDIAia, explore sesiones, vea demos y hable con expertos de NVIDIA. NVIDIA Blog. A. H. Traducido al español