El Portal de las Tecnologías para la Innovación

Categoría: Inteligencia Artificial Generativa

Preparación de robots para nuevas tareas

El spin-off de ETH Flink Robotics quiere revolucionar el manejo de paquetes. Sus fundadores Moritz Geilinger y Simon Huber han desarrollado un software que permite a los robots trabajar juntos y asumir rápidamente nuevas tareas. En resumen Como estudiante de doctorado en ETH, Moritz Geilinger estaba inmerso en consideraciones teóricas sobre la planificación y el control de los movimientos de los robots cuando una solicitud muy práctica de Swiss Post aterrizó en su escritorio. La pregunta era: ¿qué tareas en el proceso de manejo de paquetes se pueden automatizar? Junto con su colega Simon Huber, que estaba escribiendo su tesis doctoral al lado, Geilinger examinó los sistemas de clasificación de Postales Suizos. Los dos investigadores se sorprendieron al descubrir que, aunque los paquetes se clasificaban automáticamente en las cintas transportadoras, se descargaban y recargaban en los camiones a mano. Esto se debe en parte a los costos iniciales, dice Geilinger: “Los sistemas de automatización se configuran individualmente para tareas específicas, lo que requiere mucho tiempo y recursos Por lo tanto, se necesitaba un sistema más flexible para lograr una automatización adicional. Haciendo que los robots sean más inteligentes Ese es precisamente el trabajo de los investigadores en el Profesor Stelian Corososs Computational Robotics Lab –, es decir, hacer que los robots sean más inteligentes y adaptables. El grupo fue fundado en 2017 con los dos futuros jóvenes empresarios como sus primeros estudiantes de doctorado. “Lo especial del laboratorio es que todos llegamos a la robótica desde la informática,” dice Geilinger. Él mismo desarrolló whatews conocidos como una simulación de física diferenciable. “Esto nos permite predecir lo que sucede después de una acción específica, como por ejemplo cómo cambia la posición de los objetos cuando el robot se acerca a ellos,” explica. En este contexto, diferenciable significa que la simulación muestra lo que sucedería si se moviera la posición de otro objeto. Huber, por su parte, trabajó en una técnica conocida como evitación de colisiones diferenciables. Armados con este conocimiento, los dos investigadores desarrollaron conjuntamente un algoritmo que permite a los robots empacar objetos de diferentes tamaños y formas lo más estrechamente posible juntos, lo que les permite ser transportados de manera rentable de un lugar a otro. Reproducir video El software de Flink Robotics también permite a los robots trabajar juntos. (Animación: proporcionada) Permitir que los robots trabajen juntos ¿Qué hace que esta solución sea tan única? “Podemos preparar un robot para tareas definidas en cuestión de minutos,” dice Geilinger. Según el investigador, el software también permite que los robots trabajen en coordinación entre sí, por ejemplo, para levantar un paquete entre tres de ellos si es necesario. Esto elimina la necesidad de configurar una nueva infraestructura costosa para nuevas tareas. En lugar de robots más grandes y pesados, se utilizan varios más pequeños. “La solicitud de Swiss Post fue un verdadero golpe de suerte para nosotros,” dice Geilinger. Esta tarea práctica sirvió como desencadenante para fundar Flink Robotics como spin-off en 2023. Geilinger asumió el papel de CEO, y su colega Simon Huber el de CTO. Su profesor, Stelian Coros, fue la tercera persona en unirse a la compañía, en calidad de asesor. Un año después, los jóvenes empresarios ya habían contratado a seis empleados y recibieron el Premio Venture Kick, que viene con un premio en metálico de 150,000 CHF. ¿Cuál fue el secreto de su exitoso lanzamiento? Un equipo de mentes brillantes “Puede sonar un poco demasiado seguro, pero somos un equipo de mentes brillantes cuya proximidad a la investigación significa que lidiamos con tecnología de punta y podemos resolver prácticamente cualquier problema en el campo de la robótica, dice Geilinger. “Al mismo tiempo, es importante para nosotros estar muy cerca del problema, o más bien del cliente final, para descubrir por qué ciertas tareas aún no se han automatizado  Por lo tanto, Flink Robotics no es una empresa de tecnología que esté construyendo un robot con todas las capacidades ni un integrador de sistemas que simplemente esté resolviendo un problema específico. “Tratamos de centrarnos en una aplicación concreta para la que hay una gran demanda, y luego refinar la tecnología general mientras resolvemos el caso de uso, explica ” Geilinger. Innumerables clientes potenciales En cuanto al ejemplo de carga de paquetes en un centro de distribución, dice: “Weiare actualmente ve un gran interés – no solo de Swiss Post sino también de Österreichische Post y DHL.” Tan pronto como se resuelva el problema técnico, agrega, habrá un modelo de negocio extremadamente escalable para entregar –, particularmente con vistas a las 13 oficinas de clasificación de Swiss Post de diferentes tamaños y los más de 30 centros de distribución de DHL en Alemania. Otra área interesante de negocio es el embalaje final de los productos. “En última instancia, los productos a menudo todavía se empaquetan en cajas de cartón y se cargan en paletas a mano,” dice Geilinger. Los jóvenes empresarios ya han visitado fabricantes de chocolate y productores de cremas faciales que fabrican cientos de productos diferentes, operando quizás seis líneas de producción en una sola fábrica. Con los robots clásicos, esto requeriría una reprogramación y adaptación repetidas a cada producto. Gestión del crecimiento de la empresa En otras palabras, los jóvenes empresarios no tienen escasez de clientes potenciales. El gran desafío para ellos en la actualidad es hacer malabares con todas estas tareas diferentes. Continúan desarrollando sus algoritmos para clientes existentes y realizando instalaciones de prueba en el sitio.  Al mismo tiempo, se deben introducir nuevos empleados. “Una y otra vez, tenemos que rechazar a los clientes porque no tenemos la capacidad de iniciar nuevos desarrollos,” dice Geilinger. Hasta ahora, Flink Robotics ha sido muy afortunado con su personal, dado que los graduados en informática y robótica también son particularmente buscados por las empresas globales en Zurich. “Atraemos personalidades muy específicas que se sienten cómodas en un equipo pequeño y ágil, que les gusta construir cosas por sí mismas y que sienten que es importante que su propio trabajo tenga un impacto directamente visible,

Leer más »

La IA puede ayudar a los médicos a dar nutrición intravenosa a los bebés prematuros, según un estudio

Según una nueva investigación de Stanford Medicine, un algoritmo de IA puede ayudar a los médicos a tomar mejores decisiones clínicas para los recién nacidos enfermos, reducir los errores médicos y mejorar la atención en entornos de bajos recursos. La inteligencia artificial puede mejorar la nutrición intravenosa para bebés prematuros, según un estudio de Stanford Medicine. El estudio, que publicó el 25 de marzo en Medicina de la Naturalezaéste es uno de los primeros en demostrar cómo un algoritmo de IA puede permitir a los médicos tomar mejores decisiones clínicas para los recién nacidos enfermos. El algoritmo utiliza información en los registros médicos electrónicos de preemies’ para predecir qué nutrientes necesitan y en qué cantidades. La herramienta de IA se capacitó sobre datos de casi 80,000 recetas anteriores de nutrición intravenosa, que se relacionó con información sobre cómo les fue a los pequeños pacientes. El uso de la IA para ayudar a prescribir la nutrición IV podría reducir los errores médicos, ahorrar tiempo y dinero, y facilitar el cuidado de los bebés prematuros en entornos de bajos recursos, dijeron los investigadores. la nutrición IV, también conocida como nutrición parenteral total, es la única forma de alimentar a los bebés prematuros que nacen antes de que sus sistemas digestivos estén lo suficientemente maduros como para absorber los nutrientes. “En este momento, se nos ocurre una receta de TPN para cada bebé, individualmente, todos los días. Lo hacemos desde cero y se lo proporcionamos,” dijo el autor principal del estudio Aghaeepour Nima, PhD, profesor asociado de anestesiología, medicina perioperatoria y del dolor y de pediatría. “La nutrición parenteral total es la mayor fuente de error médico en las unidades de cuidados intensivos neonatales, tanto en los Estados Unidos como a nivel mundial No solo es propenso a errores del proceso, sino que también dificulta que los médicos sepan si han obtenido la fórmula correcta. No hay análisis de sangre para medir si un bebé prematuro recibió la cantidad correcta de calorías cada día, por ejemplo, y a diferencia de los bebés a término, los bebés prematuros no necesariamente lloran cuando tienen hambre y muestran satisfacción cuando están llenos. “Nutrición es una de las áreas de cuidados intensivos neonatales donde somos más débiles,” dijo el coautor del estudio David Stevenson, MD, un neonatólogo y el Harold K. Faber Profesor en Pediatría. “Podemos aproximarnos a lo que está haciendo la placenta,”, dijo. Un proceso lento Alrededor del 10% de los bebés nacen prematuramente, lo que significa que al menos tres semanas antes de sus fechas de parto. Los bebés nacidos más de ocho semanas antes no están listos para absorber los nutrientes a través de sus intestinos y requieren alimentación IV. Además, algunos bebés prematuros experimentan complicaciones gastrointestinales del parto prematuro y necesitan nutrición IV mientras el intestino se cura. En la actualidad, la nutrición IV se prescribe diariamente para estos pacientes de forma individual. Los pacientes necesitan macronutrientes, los componentes moleculares de proteínas, grasas y carbohidratos; micronutrientes como vitaminas, minerales y electrolitos; y medicamentos como la heparina, que se agrega a la preparación IV para reducir el riesgo de coágulos sanguíneos. Las recetas actuales se basan en factores como el peso de los bebés, la etapa de desarrollo y los resultados de su trabajo de laboratorio. Proporcionar estas recetas requiere el aporte de seis expertos que trabajan juntos durante un proceso de varias horas: Un neonatólogo o farmacéutico escribe cada receta, que es revisada por un dietista para la composición de nutrientes y por un segundo farmacéutico para la seguridad. La prescripción va a una farmacia de compuestos, donde se prepara, luego a la unidad de cuidados intensivos neonatales, donde una enfermera le da al IV y una segunda enfermera verifica dos veces que cada paciente recibe la preparación correcta. “Es un medicamento de alto riesgo porque es una mezcla de muchas cosas diferentes,” dijo el coautor del estudio Gaskari Shabnam, PharmD, director ejecutivo y director de farmacia de Stanford Medicine Childrenios Health. “Si hubiéramos fabricado TPN listos para usar, eso sería muy beneficioso. Creo que sería más seguro para los pacientes.” Hacia fórmulas estándar Los investigadores se preguntaron si podrían usar IA para ayudar a proporcionar a los hospitales fórmulas de nutrientes fabricadas y listas para usar. Su algoritmo de IA fue entrenado en 10 años de datos de registros médicos electrónicos de la unidad de cuidados intensivos neonatales en el Hospital Pediátrico Lucile Packard Stanford, incluyendo 79,790 recetas de nutrición IV de 5,913 pacientes prematuros. El algoritmo también tuvo acceso a información sobre los resultados médicos de patients’, lo que le permitió encontrar patrones sutiles que conectaban los niveles de nutrientes con la salud de baby’. Aunque los médicos no siempre habían obtenido cada receta previa exactamente correcta, el volumen de datos ayudó a superar ese problema, lo que permitió al algoritmo aprender de manera general sobre lo que funciona para los bebés en diferentes situaciones médicas. Esto refleja nuestra esperanza de cómo la IA mejorará la medicina: Lo que va a hacer es mejorar a los médicos y hacer que la atención de primer nivel sea más accesible.”David Stevenson, MDEl Harold K. Faber Profesor en Pediatría “Esta es una fortaleza de la IA: A veces los datos imperfectos son lo suficientemente buenos siempre que tengas muchos, dijo Aghaeepour. Después de entrenar en la década de los datos de los pacientes, el algoritmo agrupó recetas de nutrientes similares para determinar cuántas fórmulas estándar satisfacerían todas las necesidades nutricionales de los pacientes y qué incluiría cada una. “Nos preguntamos: Qué pasa si hacemos tres fórmulas estándar, o 10, o 100?” Aghaeepour dijo. “Resulta que con 15 fórmulas distintas para la nutrición IV, lo que está recomendando es bastante similar a lo que los médicos, farmacéuticos y dietistas habrían hecho de todos modos. Pero luego estas 15 fórmulas basadas en IA se pueden usar para mejorar significativamente la velocidad y la seguridad.” Además, los investigadores demostraron que el algoritmo de IA podría usar datos de los registros médicos electrónicos de patients’ para predecir cuál de las 15

Leer más »

Computadoras súper rápidas para IA: Torsten Hoefler recibió el prestigioso Premio ACM

Torsten Hoefler gana el prestigioso Premio ACM en Computación por su trabajo pionero en computación de alto rendimiento. El hecho de que las supercomputadoras se hayan vuelto tan poderosas que los modelos de IA se puedan entrenar muy rápidamente con grandes volúmenes de datos se debe en parte a su investigación. En resumen Uno de los premios de computación más importantes del mundo es para un Profesor de ETH: Torsten Hoefler, Profesor de sistemas informáticos de alto rendimiento y Arquitecto Jefe de IA y Aprendizaje Automático en el Centro Nacional de Supercomputación de Suiza (CSCS), gana el Premio ACM en Computación 2024. Hoefler está recibiendo el premio por sus “contribuciones fundamentales a la informática de alto rendimiento y la revolución de la IA en curso”, afirma la Asociación de Maquinaria Informática (ACM). El Premio ACM en informática reconoce a los informáticos de principios a mediados de carrera por “contribuciones de investigación de importancia fundamental e implicaciones amplias.” El premio está dotado con un premio de USD 250.000. Hoefler es uno de los pocos científicos fuera de los Estados Unidos y el primero en Europa continental en recibir este galardón. Christian Wolfrum, Vicepresidente de Investigación de ETH Zurich, comenta: “¡Este premio es muy merecido! El trabajo pionero de Hoeflerla en computación de alto rendimiento es esencial para el trabajo en el área de IA en todo el mundo. El premio es un testimonio impresionante de la importancia de ETH y Suiza como un lugar para la investigación avanzada y de vanguardia de la IA.” Potencia informática masivamente acelerada Hoefler realiza investigaciones sobre el rendimiento de los sistemas informáticos paralelos. Su trabajo ha hecho una contribución clave para acelerar masivamente la computación de alto rendimiento (HPC), mejorando la eficiencia y, por lo tanto, haciendo que los costos sean aceptables. Si bien la computación de alto rendimiento solía ser importante principalmente para los científicos, por ejemplo, para las simulaciones meteorológicas y climáticas, ahora ha crecido en importancia para el público en general con el auge actual de la IA. Hoefler afirma: “Es una sensación muy maravillosa saber que las cosas que se crearon principalmente durante mi doctorado ahora se han vuelto tan importantes. Este premio es un gran honor!” Específicamente, Hoefler cambió la forma en que varias computadoras trabajan juntas en una tarea. Cuando lo hacen, tienen que ser capaces de intercambiar grandes cantidades de datos de forma rápida y fiable. La red que vincula estas computadoras debe estar diseñada para funcionar de manera rápida, estable y sin cuellos de botella, incluso si es muy grande. La contribución de Hoeflerlers consistió, entre otras cosas, en desarrollar nuevas arquitecturas de red, algoritmos de enrutamiento y procedimientos para evitar cuellos de botella de datos que permitieron esta escala en primer lugar. Base para grandes modelos de IA y catalizador para la ciencia El ACM escribe que el trabajo de Hoefler y sus colegas en el diseño de red de escala en supercomputadoras revolucionó sus capacidades. “Como resultado, los algoritmos de IA, por ejemplo, se pueden procesar en paralelo en cientos de miles de nodos (computadoras o servidores).” Por lo tanto, Hoefler también está acelerando indirectamente la ciencia, ya que depende cada vez más de grandes volúmenes de datos y aprendizaje automático para obtener nuevos conocimientos. “La computación de alto rendimiento es un catalizador y un factor decisivo para la ciencia; cuanto más eficientemente podamos calcular, mayor será el potencial.”Torsten Hoefler Hoy en día, muchas de sus innovaciones se incorporan en las computadoras más grandes y poderosas, incluida la Alpes supercomputadora en el Centro Nacional de Supercomputación de Suiza (CSCS) en Lugano, donde Hoefler es el Arquitecto Jefe de IA y Aprendizaje Automático. ETH Zürich News. Traducido al español

Leer más »

Acelerar la IA para Cada Empresa

DGX NVIDIA ™ B300 es una solución de infraestructura de IA especialmente diseñada para satisfacer las demandas computacionales de la IA generativa. Desarrollado por Blackwell Ultra NVIDIA GPU, DGX B300 ofrece una inferencia de 11x y un aumento del rendimiento de entrenamiento de 4x que la generación anterior, todo en un nuevo factor de forma diseñado para encajar perfectamente en el centro de datos moderno. Compatible con MGX NVIDIA™ y los bastidores empresariales tradicionales y con software de pila completa, simplifican y agilizan la implementación de IA, lo que permite que cualquier empresa se ejecute como un hiperescalador. Explora NVIDIA DGX B300 Descubra cómo NVIDIA DGX B300 agiliza la implementación de IA al tiempo que proporciona la potencia computacional necesaria para manejar las cargas de trabajo de IA generativas. Lea la Hoja de datos  Implementaciones Empresariales Exitosas Lee cómo el Plataforma NVIDIA DGX y NeMo NVIDIA™ han empoderado a las empresas líderes. Descarga el Ebook  Características Una Fábrica de IA para la Era del Razonamiento Powerhouse en Tiempo Real para Inferencia y Entrenamiento Desarrollado por las GPU NVIDIA Blackwell Ultra, DGX B300 proporciona a las empresas una única plataforma para acelerar modelo de idioma grande (LLM) inferencia y entrenamiento. Al ofrecer 144 petaFLOPS de rendimiento de inferencia, cada empresa puede operar como un hiperescalador. Innovación Eficiente y Sostenible Con múltiples opciones de energía para elegir, NVIDIA DGX B300 está diseñado para ser el superordenador de IA más eficiente en energía, ofreciendo una eficiencia energética y un rendimiento inigualables por vatio. Estándar Revolucionario de Infraestructura NVIDIA DGX B300 ha sido rediseñado para el centro de datos moderno, desplegable en los racks NVIDIA MGX por primera vez. Este nuevo estándar de la industria está impulsando un cambio en la ingeniería del centro de datos, lo que facilita más que nunca obtener un rendimiento y eficiencia innovadores. Especificaciones NVIDIA DGX B300 Especificaciones GPU GPU NVIDIA Blackwell Ultra CPU Procesadores duales Intel® Xeon® Memoria Total de GPU 2.3TB Rendimiento 72 Entrenamiento FP8 de PFLOPS144 Inferencia FP4 de PFLOPS Redes 8x puertos OSFP que sirven 8x puerto único NVIDIA ConnectX-8 VPIHasta 800Gb/s NVIDIA InfiniBand/Ethernet2x puerto dual QSFP112 NVIDIA BlueField-3 DPUHasta 800Gb/s NVIDIA InfiniBand/Ethernet Red de Gestión 1GbE a bordo NIC con RJ451GbE RJ45 Controlador de gestión de zócalo host (BMC) Almacenamiento SO: 2x 1.9TB NVMe M.2Almacenamiento interno: 8x 3.84TB NVMe E1.S Consumo de Energía ~14kW Software NVIDIA DGX OS / NVIDIA Mission Control / NVIDIA AI Enterprise /Gerente de Comando Base de NVIDIA Soporta Red Hat Enterprise Linux / Rocky / Ubuntu Soporte Soporte de hardware y software estándar de negocios de tres años NVIDIA Blog. Traducido al español

Leer más »

Seguridad en el Camino a AGI

Actualizaciones sobre el Programa de Subvenciones de Ciberseguridad de OpenAIa, Recompensas de Errores e Iniciativas de Seguridad Weirre comparte desarrollos que reflejan nuestro progreso, impulso y compromiso con la excelencia en seguridad en nuestro ambicioso camino hacia AGI. Evolucionando nuestro Programa de Subvenciones de CiberseguridadDesde lanzamiento del Programa de Subvenciones de Ciberseguridad hace dos añoshemos revisado más de mil aplicaciones y financiado 28 iniciativas de investigación, obteniendo información crítica sobre áreas como la inyección rápida, la generación segura de código y las defensas autónomas de ciberseguridad. Continuamos financiando proyectos audaces e innovadores destinados a avanzar en las ciencias de la IA y la ciberseguridad. El Programa de Subvenciones de Ciberseguridad ahora está solicitando propuestas para una gama más amplia de proyectos. Las áreas de enfoque prioritarias para las nuevas solicitudes de subvenciones incluyen: También estamos introduciendo micro-subvenciones para propuestas de alta calidad. Estos son créditos API proporcionados a los investigadores para crear prototipos rápidos de ideas y experimentos innovadores de ciberseguridad. Si estás interesado en participar, te invitamos a envíe una propuesta aquí. Investigación de seguridad de código abiertoAdemás del Programa de Subvenciones de Ciberseguridad, estamos involucrando a investigadores y profesionales de toda la comunidad de ciberseguridad. Esto nos permite aprovechar las últimas ideas y compartir nuestros hallazgos con aquellos que trabajan hacia un mundo digital más seguro. Para capacitar a nuestros modelos, nos asociamos con expertos en laboratorios académicos, gubernamentales y comerciales para comparar las brechas de habilidades y obtener ejemplos estructurados de razonamiento avanzado en todos los dominios de ciberseguridad. La colaboración ha arrojado resultados impresionantes en temas como la seguridad del código, un área en la que tenemos la intención de ser líderes en la industria con nuestra capacidad de modelos para encontrar y parchear vulnerabilidades en el código. Weizve demostró internamente la capacidad de vanguardia en esta área con puntajes líderes de la industria en puntos de referencia públicos, ha encontrado vulnerabilidades en el código de software de código abiertoy divulgaremos las divulgaciones de seguridad a las partes relevantes de código abierto a medida que las identifiquemos y escalemos. Ampliando nuestro Programa de Recompensas de Errores de SeguridadNuestro Programa de Recompensas de Errores de Seguridad recompensa a los investigadores de seguridad por identificar de manera responsable las vulnerabilidades y amenazas dentro de nuestra infraestructura y productos. Estamos haciendo mejoras en el programa para abordar mejor las amenazas en evolución. Aumento de los pagos máximos de recompensas por erroresEstamos aumentando significativamente el pago máximo de recompensas por hallazgos críticos excepcionales y diferenciados a $100,000 (anteriormente $20,000). Este aumento refleja nuestro compromiso de recompensar la investigación de seguridad significativa y de alto impacto que nos ayuda a proteger a los usuarios y mantener la confianza en nuestros sistemas. Período de promoción de bonosPara celebrar la expansión de nuestro programa de recompensas de errores, weiwre lanza promociones por tiempo limitado. Durante los períodos promocionales, los investigadores que presenten informes de calificación dentro de categorías específicas serán elegibles para bonos de recompensa adicionales. Cada categoría promocional tiene criterios y plazos de elegibilidad específicos y claramente definidos, que puede ver en nuestra Programa de Recompensas de Bug(se abre en una ventana nueva)página. Fortalecimiento de la seguridad en un paisaje dinámico Las amenazas a la seguridad evolucionan constantemente y a medida que nos acercamos a AGI, esperamos que nuestros adversarios se vuelvan más tenaces, numerosos y persistentes. En OpenAI, nos adaptamos de manera proactiva de múltiples maneras, incluso mediante la construcción de medidas de seguridad integrales directamente en nuestro infraestructura y modelos. Defensa cibernética impulsada por IAPara proteger a nuestros usuarios, sistemas y propiedad intelectual, estamos aprovechando nuestra propia tecnología de IA para escalar nuestras defensas cibernéticas. Desarrollamos métodos avanzados para detectar amenazas cibernéticas y responder rápidamente. Como complemento junto con las estrategias convencionales de detección de amenazas y respuesta a incidentes, nuestros agentes de seguridad impulsados por IA ayudan a mejorar las capacidades de detección de amenazas, permiten una respuesta rápida a las tácticas adversarias en evolución y equipan a los equipos de seguridad con la inteligencia precisa y procesable necesaria para contrarrestar los ataques cibernéticos sofisticados. Equipo rojo adversarial continuoNos hemos asociado con EspectroOps(se abre en una ventana nueva), reconocidos expertos en investigación de seguridad y operaciones adversas, para probar rigurosamente nuestras defensas de seguridad a través de ataques simulados realistas en toda nuestra infraestructura, incluidos los entornos corporativos, en la nube y de producción. Estas evaluaciones continuas nos permiten identificar vulnerabilidades de manera proactiva, mejorar nuestras capacidades de detección y fortalecer nuestras estrategias de respuesta contra amenazas sofisticadas. Más allá de estas evaluaciones, también estamos colaborando para generar capacitación avanzada en habilidades para mejorar nuestras capacidades de modelo en técnicas adicionales para proteger mejor nuestros productos y modelos. Interrumpir a los actores de amenazas y combatir proactivamente el abuso malicioso de la IAMonitoreamos y monitoreamos continuamente interrumpir los intentos de actores maliciosos para explotar nuestras tecnologías. Cuando identificamos amenazas dirigidas a nosotros, como un reciente campaña de spear phishing dirigida a nuestros empleados(se abre en una ventana nueva), no solo nos defendemos, compartimos tradecraft con otros laboratorios de IA para fortalecer nuestras defensas colectivas. Al compartir estos riesgos emergentes y colaborar en toda la industria y el gobierno, ayudamos a garantizar que las tecnologías de IA se desarrollen e implementen de forma segura. Asegurar agentes emergentes de IAA medida que introducimos agentes avanzados de IA, como Operador y investigación profundainvertimos en comprender y mitigar los desafíos únicos de seguridad y resiliencia que surgen con dicha tecnología. Nuestros esfuerzos incluyen el desarrollo de métodos de alineación sólidos para defenderse contra ataques de inyección rápida, el fortalecimiento de la seguridad de la infraestructura subyacente y la implementación de controles de monitoreo de agentes para detectar y mitigar rápidamente comportamientos no deseados o dañinos. Como parte de esto, estamos construyendo una tubería unificada y un marco modular para proporcionar visibilidad y aplicación escalables en tiempo real a través de acciones de agentes y factores de forma. Seguridad para futuras iniciativas de IALa seguridad es una piedra angular en el diseño e implementación de proyectos de IA de próxima generación, como Stargate. Trabajamos con nuestros socios

Leer más »

Galaxy S25 Enterprise Edition: inteligencia artificial y seguridad para transformar la productividad en las empresas

Con agentes de IA multimodales, protección reforzada con Samsung Knox Suite e integración con herramientas empresariales, el nuevo smartphone aumenta la eficiencia y la conectividad en el entorno corporativo Samsung presenta el Galaxy S25 Enterprise Edition y el Galaxy S25 Ultra Enterprise Edition especialmente para el mercado B2B, incorporando Galaxy AI y Google Gemini unidos en una revolución en la productividad y la conectividad. Al establecer un nuevo estándar para el mercado de teléfonos celulares, al igual que los demás miembros de la familia Samsung Galaxy S25, la versión Enterprise Edition se convierte en un verdadero compañero de IA móvil que presenta las experiencias de contexto más naturales y conscientes jamás creadas por Samsung. El Galaxy S25 Enterprise Edition también ofrece un año gratuito del paquete de seguridad de Knox Suite más amplio, Knox Suite – Enterprise Plan —una solución empresarial completa diseñada para gestionar y proteger los dispositivos de trabajo—, garantía de tres años y actualizaciones de software extendidas y configuraciones optimizadas para empresas. Galaxy AI Una de las innovaciones es Galaxy AI, el enfoque exclusivo de Samsung para la inteligencia artificial, capaz de interpretar textos, buscar archivos, imágenes y videos, proporcionando interacciónes aún más naturales en el día a día laboral. Entre sus funcionalidades, el asistente de escritura optimiza la elaboración de informes y comunicaciones internas, y la traducción en tiempo real de llamadas de voz entre portugués, español e inglés facilita el contacto con equipos internacionales, por ejemplo. Galaxy AI también genera resúmenes automáticos de reuniones, transcripción de audio, ayudando en la organización de tareas, y ofrece una búsqueda mejorada en la galería de imágenes, así como el ajuste dinámico de fuentes para una mejor accesibilidad. Además, la función Editor de Audio permite reducir o eliminar los ruidos en las llamadas y grabaciones. El recurso “Circle to Search”[1], mejorado por Google, permite un acceso rápido a la información de la pantalla, como números de teléfono, emails y direcciones, lo que hace más eficiente el flujo de trabajo. El asistente Gemini integra aplicaciones de Samsung, Google y terceros[2], y permite, por ejemplo, convertir las notas de reunión en tareas automáticamente en el Calendario. Asimismo, la compatibilidad con Samsung DeX transforma el dispositivo en una estación de trabajo conectada a un monitor. “La inteligencia artificial integrada en el Galaxy S25 crea una experiencia más intuitiva y funcional para los usuarios, optimizando los procesos y ampliando posibilidades en el entorno corporativo. Estamos redefiniendo la manera en la que las empresas pueden usar dispositivos móviles para impulsar la productividad, por medio de un ecosistema inteligente que apoya desde pequeños equipos hasta grandes corporaciones en la era digital”, afirma André Peixoto, director senior y jefe de Soluciones Integradas B2B de Samsung para América Latina. Privacidad y seguridad en primer lugar Con la creciente digitalización de los procesos empresariales, Samsung mejoró las herramientas de protección en el Galaxy S25. De este modo, Personal Data Engine[3] garantiza el análisis de datos directamente en el dispositivo, a fin de evitar vulnerabilidades externas, mientras que la Protección de Datos Mejorada (EDP) poscuántica agrega una capa adicional contra amenazas emergentes. La interfaz One UI 7 también incorpora nuevas características, incluida la protección de robo mejorada y un panel de Knox Matrix[4], lo que permite monitorear los dispositivos conectados de manera centralizada. Batería duradera y rendimiento mejorado Diseñado para cubrir las demandas del entorno corporativo, Galaxy S25 ofrece hasta 29 horas de autonomía de batería y cuenta con el nuevo procesador Qualcomm Snapdragon 8 Elite for Galaxy, que brinda un rendimiento un 40% superior a la generación anterior[5]. La versión Galaxy S25 Ultra permite hasta 31 horas de autonomía de la batería y está construido con titanio duradero y el nuevo Corning® Gorilla® Armor 2, un material innovador más resistente que el vidrio, que ofrece una mayor resistencia contra caídas y rayones y una experiencia visual mejorada. Compromiso con la sostenibilidad En un esfuerzo por reducir los impactos ambientales, cada componente externo del Galaxy S25+ y S25 ahora usa al menos un material reciclado[6], y el marco de metal incorpora aluminio reciclado por primera vez[7]. Además, el Galaxy S25 Ultra utiliza al menos 50% de cobalto reciclado en sus baterías[8], de dispositivos Galaxy anteriores y de baterías desechadas durante el proceso de fabricación. La compañía también apuesta por la longevidad de los dispositivos, con siete años de actualizaciones del sistema de seguridad y siete generaciones de actualización del operativo[9], proporcionando un rendimiento confiable y optimizado para una vida útil más larga. Para obtener más información sobre el Samsung Galaxy S25, visita https://www.samsung.com/latin/business/o la Sala de Prensa Latinoamérica en https://news.samsung.com/latin/ [1] Circle to Search es marca comercial de Google LLC. Secuencias acortadas y simuladas. Resultados sólo con fines ilustrativos. La disponibilidad del servicio puede variar según el país, el idioma y el modelo del dispositivo. Se requiere conexión a internet. Es posible que los usuarios tengan que actualizar Android y la aplicación de Google a la última versión. Los resultados pueden variar en función de las coincidencias visuales o auditivas. No se garantiza la precisión de los resultados. Funciona en aplicaciones y superficies compatibles, y solo con música ambiental. No identificará la música proveniente de auriculares o si el volumen del teléfono está apagado. [2] Samsung no es responsable del uso, operación y almacenamiento de datos de aplicaciones de terceros, y, al usarlas, el usuario es consciente de que le pueden cobrar costos de uso por el servicio o paquetes sin ninguna interferencia de Samsung. [3] Personal Data Engine funciona con la condición de que el menú Personal Data Intelligence esté activado. Los datos analizados se eliminarán una vez que se desactive el menú Personal Data Intelligence Personal Data Engine reconoce determinados idiomas y ciertos acentos/dialectos, incluidos, entre otros, el alemán, árabe, chino (simplificado), coreano, español, francés, hindi, indonesio, inglés, italiano, japonés, neerlandés, polaco, portugués, rumano, ruso, sueco, tailandés, turco y vietnamita. Actualmente, Personal Data Engine analiza las aplicaciones nativas de Samsung. [4] Samsung Knox Matrix no puede garantizar una protección completa contra todas las vulnerabilidades dentro del ecosistema de dispositivos conectados de un usuario. [5] Mejoras de rendimiento de AP en comparación con Galaxy S24 Ultra. El rendimiento real dependerá del entorno

Leer más »

Broadcom Extiende el Liderazgo DSP PHY de 200G/carril para la Infraestructura de IA de Próxima Generación

Broadcom Inc. (NASDAQ: AVGO) anunció hoy la expansión de su cartera 200G/lane DSP PHY líder en la industria con la introducción de Sian3 y Sian2M, diseñados específicamente para los exigentes requisitos de conectividad de los clústeres AI/ML.  Sian3: El DSP PHY de 3nm de última generación ofrece el menor consumo de energía de la industria con un rendimiento mejorado para transceptores ópticos 800G y 1.6T sobre SMF Sian2M: El primer DSP de 200G/carril de Industryus con controladores VCSEL integrados permite enlaces MMF de corto alcance de baja potencia en clústeres de IA PALO ALTO, California., Marzo 25, 2025 (GLOBE NEWSWIRE) — Broadcom Inc.(NASDAQ: AVGO) anunció hoy la expansión de su cartera 200G/lane DSP PHY líder en la industria con la introducción de Sian3 y Sian2M, diseñados específicamente para los exigentes requisitos de conectividad de los clústeres AI/ML. Estas innovaciones abordan la necesidad crítica de una potencia optimizada en los enlaces de fibra monomodo (SMF) y fibra multimodo de corto alcance (MMF) en aplicaciones de transceptor óptico 800G y 1.6T. El rápido crecimiento de las cargas de trabajo de IA está impulsando la demanda de mayor ancho de banda y densidad de interconexión en los grupos de IA. La potencia de interconexión óptica es un factor importante que limita la escalabilidad del clúster. Los nuevos DSP Sian3 y Sian2M de Broadcom, junto con su amplia cartera de láseres 200G/lane, proporcionan niveles sin precedentes de eficiencia energética y optimización de costos para la infraestructura de IA de próxima generación. Sian3, un 3nm 200G/lane PAM4 DSP PHY de última generación, ofrece el consumo de energía más bajo de la industria para transceptores ópticos 800G y 1.6T utilizando SMF. Sian3 se basa en el éxito de Broadcoms Sian2 DSP, lo que permite una reducción de energía de más del 20% para módulos 1.6T basados en EML y SiP. Sian2M ofrece una solución especializada y optimizada para enlaces MMF de corto alcance de 800G y 1.6T dentro de clústeres de IA. Al integrar los controladores VCSEL y aprovechar la tecnología VCSEL 200G probada en el mercado de Broadcom, Sian2M desbloquea nuevos niveles de rendimiento y eficiencia para la conectividad de corto alcance. Esta tecnología se basa en el historial establecido de Broadcom en interconexiones ópticas, habiendo implementado con éxito más de 50 millones de canales de 100G VCSEL en redes de IA.  Los SIan3 y Sian2M DSP PHY de Broadcom, desarrollados en conjunto con su cartera de láseres EML y CWL de 200G/lane y sus VCSEL probados en el mercado, permiten a los desarrolladores de módulos abordar rápidamente la creciente demanda de óptica 200G en IA. Los EML y PD 200G de Broadcom ya se están enviando en volumen, brindando la calidad, confiabilidad y rendimiento necesarios para las interconexiones ópticas AI. “La familia Sian de DSP PHY de Broadcom es fundamental para la conectividad óptica de baja potencia y alto ancho de banda necesaria para los clústeres de AI/ML, dijo” Janapaty Vijay, vicepresidente y gerente general de la División de Productos de Capa Física de Broadcom. “Nuestro nuevo Sian3 de 3 nm ofrece una reducción de potencia de más del 20% para módulos ópticos de 1.6T, mientras que Sian2M con controladores VCSEL integrados y VCSEL de 200G brinda costo y eficiencia energética a enlaces de corto alcance. Estas innovaciones permiten a nuestros clientes escalar grupos de IA para satisfacer las demandas de las crecientes cargas de trabajo de IA.» “Según nuestro reciente informe Markets for PAM4 and Coherent DSPs, las construcciones de infraestructura de IA están impulsando un crecimiento masivo en los envíos de PAM4 DSP, dijo” Bob Wheeler, Analista en general, LightCounting. “Para 2028, esperamos que los transceptores ópticos 1.6T consuman más de $1 mil millonesvalor de los DSP PAM4, ya que los sistemas de conmutación 102T de próxima generación hacen la transición a serdes 200G.» Destacados de la Solución DSP Sian3 DSP Sian2M 200G/láser de carril «A medida que la demanda de conectividad de alta velocidad y eficiencia energética continúa aumentando, la integración de Broadcoms Sian3 y Sian2M en nuestros transceptores nos permite ofrecer un rendimiento líder en la industria con importantes ahorros de costos y energía, dijo” Richard Huang, CEO, Tecnología Eoptolink. “Al combinar estos DSP avanzados con nuestra propia experiencia en ingeniería, estamos impulsando la innovación en todo el ecosistema, lo que permite una conectividad óptica escalable y de alta densidad que satisface las demandas cambiantes de la infraestructura de IA de próxima generación y reduce el costo total de propiedad Disponibilidad Broadcom está muestreando Sian3 (BCM83628 y BCM83820) y Sian2M (BCM85834) para acceder temprano a clientes y socios, con rampas de producción de Sian3 en Q3 2025. Póngase en contacto con su representante local de ventas de Broadcom para obtener muestras y precios. Broadcom News. Traducido al español

Leer más »

Presentamos 4o Image Generation

Desbloqueo de generación de imágenes útiles y valiosas con un modelo multimodal nativo capaz de salidas precisas, precisas y fotorrealistas. En OpenAI, hemos creído durante mucho tiempo que la generación de imágenes debería ser una capacidad principal de nuestros modelos de lenguaje. Es por eso que weiesve construyó nuestro generador de imágenes más avanzado hasta ahora en GPT‑4o. El resultado— generación de imágenes que no solo es hermoso, sino útil. Una imagen amplia tomada con un teléfono de una pizarra de vidrio, en una habitación con vistas al Puente de la Bahía. El campo de visión muestra a una mujer escribiendo, luciendo una camiseta con un gran logotipo OpenAI. La escritura a mano se ve natural y un poco desordenada, y vemos el reflejo del fotógrafo. El texto dice: (izquierda)«Transferencia entre Modalidades: Supongamos que modelamos directamentep(texto, píxeles, sonido) [ecuación]con un gran transformador autorregresivo. Pros:* generación de imágenes aumentada con vasto conocimiento mundial* renderizado de texto de siguiente nivel* aprendizaje nativo en contexto* pila unificada de post-entrenamiento Contras:* variación de la tasa de bits entre modalidades* cómputo no adaptativo» (Derecho)«Arreglos:* representaciones comprimidas modelo* componer prioregresivo con un potente decodificador» En la parte inferior derecha del tablero, dibuja un diagrama:«tokens -> [transformer] -> [difusion] -> pixels»Leer más Lo mejor de 8 vista selfie del fotógrafo, mientras se da vuelta a lo alto cinco él Lo mejor de 8 poesía magnética en una nevera en una casa de mediados de siglo: Línea 1: «Una imagen»Línea 2: «vale la pena»Línea 3: «mil palabras»Línea 4: «pero a veces»Large gapLine 5: «en el lugar correcto»Línea 6: «puede elevar»Línea 7: «su significado. «El hombre sostiene las palabras «unos pocos» en su mano derecha y las «palabras» en su izquierda.Leer más Lo mejor de 5 Haga una imagen de una tira de cuatro‑panel, con un poco de relleno alrededor del borde: Un pequeño caracol está en el mostrador de una llamativa sala de exposición de autos. El vendedor se ha inclinado sobre el escritorio para verlo. Close‑up en el caracol se ve muy serio. Él dice, “quiero tu auto deportivo más rápido… y quiero que pintes una gran letra ‘Ss en las puertas, el capó y el techo.” El vendedor se está rascando la cabeza. “Um… podemos hacer eso, pero ¿por qué los Sing?” Cortar a un rojo borroso rugiendo por la carretera. El auto deportivo está cubierto de Ss gigantes. ¡La gente en la acera está señalando y riendo: “WOW! MIRA ESE S‑CAR GO!”Leer más Lo mejor de ~2 una infografía que explica el experimento del prisma de Newton con gran detalle Lo mejor de 3 ahora genere un POV de una persona dibujando este diagrama en su cuaderno, en una mesa redonda de café en el parque cuadrado de Washington Lo mejor de 2 ahora muestra la misma escena con un joven presumido Isaac Newton sentado a la mesa, con un prisma, demostrando el experimento, sin el cuaderno a la vista Lo mejor de 4 Generación de imágenes útil Desde las primeras pinturas rupestres hasta las infografías modernas, los humanos han utilizado imágenes visuales para comunicarse, persuadir y analizar—, no solo para decorar. Los modelos generativos de hoy en día pueden evocar escenas surrealistas e impresionantes, pero luchan con las imágenes del caballo de batalla que las personas usan para compartir y crear información. Desde logotipos hasta diagramas, las imágenes pueden transmitir un significado preciso cuando se aumentan con símbolos que se refieren al lenguaje y la experiencia compartidos. La generación de imágenes de GPT‑4o sobresale en la representación precisa de texto, siguiendo con precisión las indicaciones, y aprovechando la base de conocimientos inherente de 4oA y el contexto del chat—, incluida la transformación de imágenes cargadas o su uso como inspiración visual. Estas capacidades hacen que sea más fácil crear exactamente la imagen que visualiza, ayudándole a comunicarse de manera más efectiva a través de imágenes y avanzando la generación de imágenes en una herramienta práctica con precisión y potencia. 00:0000:00 00:0000:00 00:0000:00 00:0000:00 00:0000:00 Capacidades mejoradas Capacitamos a nuestros modelos en la distribución conjunta de imágenes y texto en línea, aprendiendo no solo cómo las imágenes se relacionan con el lenguaje, sino cómo se relacionan entre sí. Combinado con el post-entrenamiento agresivo, el modelo resultante tiene una fluidez visual sorprendente, capaz de generar imágenes que son útiles, consistentes y conscientes del contexto. Representación de texto Una imagen vale más que mil palabras, pero a veces generar unas pocas palabras en el lugar correcto puede elevar el significado de una imagen. La capacidad de 4oOs para combinar símbolos precisos con imágenes convierte la generación de imágenes en una herramienta para la comunicación visual.Señales de calleMenúInvitaciónSeñales de calleMenúInvitación Crea una imagen fotorrealista de dos brujas de unos 20 años (un balayage de ceniza, uno con cabello largo y ondulado) leyendo un letrero de calle. Contexto:una calle de la ciudad en una calle aleatoria en Williamsburg, Nueva York con un poste cubierto completamente por numerosas señales detalladas de la calle (por ejemplo, horas de barrido de la calle, permisos de estacionamiento requeridos, clasificaciones de vehículos, reglas de remolque), incluyendo pocas señales ridículas en el medio: (parafrasearlo para hacer estas señales legítimas de la calle)»Estacionamiento de la habitación para Brujas No Permitido en la Zona C» y «Magic Carpet Loading and Unloading Only (15-Minute Limit)» y «Reindeer Parking by Permit Only (Dec 24–25)\n Violators se colocarán en Naughty List.» La señal está a la derecha de una calle. No repita signos. Los signos deben ser realistas. Personajes:una bruja sostiene una escoba y la otra tiene una alfombra mágica enrollada. Están en primer plano, hacia atrás ligeramente girados hacia la cámara y la cabeza ligeramente inclinada mientras examinan las señales. Composición de fondo a primer plano:calles + autos estacionados + edificios -> letrero de calle -> brujas. Los personajes deben estar más cerca de la cámara que toma la fotoLeer más Lo mejor de ~8 Estoy abriendo un restaurante de concepto tradicional en Marin llamado Haein. Se centra en los alimentos coreanos cocinados con ingredientes orgánicos frescos de

Leer más »

Entregando Conectividad Resiliente para IA

Cisco EVP y CPO Jeetu Patel compartieron recientemente cómo los proveedores de servicios e hiperescaladores deben repensar sus arquitecturas para entregar el futuro de la conectividad global en la era de la IA. Mientras nos dirigimos al OFC la próxima semana, la transformación de la IA sin duda será un tema candente, ya que exige cada vez más interconexiones de alta velocidad entre centros de datos—y dentro de centros de datos—que solo la fibra óptica puede proporcionar. La IA está impulsando un aumento masivo en las cargas de trabajo de los centros de datos, y IDC predice que la generación de datos crecerá a una tasa de crecimiento anual compuesta (CAGR) del 40,5% hasta 2027. Gartner espera que el uso de modelos de IA generativos influya en más del 90% de las organizaciones para perseguir entornos de nube híbrida hasta 2027. Optimización de Centros de Datos Listos en IA de Alto Rendimiento El papel del centro de datos a medida que la IA se convierte en una fuerza global generalizada no puede exagerarse. Y, las redes y la interoperabilidad son críticas para escalar la IA. La asociación recientemente ampliada entre Cisco y NVIDIA acelerará la adopción de IA al crear interoperabilidad entre ambas arquitecturas de redes companies’. Esto permite a los clientes estandarizar simultáneamente las redes de Cisco y la tecnología NVIDIA en el centro de datos, optimizando sus inversiones en infraestructura de IA con una arquitectura común y soluciones simplificadas de pila completa. Óptica de cliente de calidad también desempeñan un papel fundamental en el soporte de la transferencia masiva de datos, la baja latencia y la conectividad resistente que exigen las cargas de trabajo de IA. Cisco continúa expandiendo su cartera de ópticas de alta velocidad diseñadas para aplicaciones de IA en redes front-end y back-end, incluidos los módulos OSFP 800G para conectividad de conmutadores AI y los módulos QSFP112 400G para conectividad de servidores AI. Estos módulos se benefician del liderazgo de la tecnología de fotónica de silicio de Cisco que ofrece: El enfoque óptico de Cisco es un destacado de la industria, que combina tecnologías avanzadas, una cartera completa y metodologías de prueba rigurosas, lo que resulta en un rendimiento mejor que los puntos de referencia de la industria. A diferencia de muchos proveedores, Cisco también proporciona una interoperabilidad perfecta en entornos de múltiples proveedores, entregando ópticas que se prueban tanto para Cisco como para plataformas de terceros. Estas calificaciones y una validación estricta dan como resultado un tiempo de inactividad reducido, prevención de interrupciones costosas y un retorno máximo de la infraestructura de IA. Conexión de Centros de Datos Listos para IA A medida que los proveedores de servicios adaptan su red para la IA, adoptar IP y Convergencia Óptica trae beneficios que cambian el juego. Cisco fue pionero en Routed Optical Networking, que ahora es convencional con implementaciones de 300+ con operadores de red, utilidades y grandes empresas. Lumen está revolucionando su arquitectura de Internet para la economía de la IA al aprovechar las Redes Ópticas Enrutadas. Están abordando los desafíos de latencia y costos creando una verdadera arquitectura de múltiples nubes. Puedes aprender más por viendo este video. Con casos de uso ampliados de enlaces de 100G a 800G y alcances de hasta 3000 km, Routed Optical Networking ahora puede abordar el acceso a aplicaciones de ultra larga distancia (ULH) habilitadas por los nuevos módulos conectables coherentes 800G ZR/ZR+ y 400G ULH. Cisco es un líder del mercado en enchufables coherentes, habiendo enviado 500,000 Puertos 400G basado en el Procesador de Señal Digital Greylock. Estamos viendo un gran interés de los proveedores de servicios para 400G ULH con una prueba anunciada por Arelio más de 2.253 km, lo que permite una reducción del 35% en CAPEX y una reducción del 84% en OPEX LightCounting, Google y Meta serán los principales consumidores de 800ZR/ZR+ para redes metropolitanas y regionales. Y, Col recientemente anunció que es el primer proveedor en probar con éxito la óptica enchufable coherente ZR+ 800G de rendimiento mejorado en sus puertos de enrutador de la serie Cisco 8000, en su red de producción. Estas ópticas coherentes basadas en enrutadores Cisco 800G proporcionan la capacidad de duplicar la capacidad central de los paquetes Coltts por enlace, al tiempo que reducen la potencia por bit en un 33,3%.  Arelioseguido de una prueba que demostró la transmisión IP a 800 Gbps en 1.069 kilómetros, proporcionando mayores ahorros de costos que las tecnologías implementadas actualmente. Arquitecturas Distribuidas del Centro de Datos Metro A medida que la capacidad del centro de datos se escala para satisfacer las crecientes demandas de IA, almacenamiento y computación, las arquitecturas del centro de datos del metro se están distribuyendo cada vez más. El resultado es una mayor necesidad de conectividad óptica de un solo tramo y alta capacidad. Cisco ofrece un Sistema de Línea Abierta mejorado para Metro e Interconexión de Centro de Datos que es una solución compacta que combina el sistema de línea con óptica coherente en el galardonado transpondedor NCS 1014. Incluye una nueva tarjeta de línea EDFA, una sonda coherente de banda C sintonizable QSFP-DD OTDR y QSFP-DD alojada en el chasis NCS 1014, optimizada para aplicaciones DCI punto a punto 400ZR y futuras generaciones de transpondedores de mayor velocidad de transmisión para DCI de metro de alto rendimiento, escalable y confiable. Otra nueva capacidad en el NCS 1014 con CIM 8 es la capacidad de los operadores de red para añadir más capacidad en su red existente mediante la utilización de bandas C y L para permitir un aumento dramático en la capacidad total de fibra, mientras que es rentable. Participación Activa de Cisco en la Innovación de Conducción, Redes Abiertas y Estándares de Interoperabilidad Como se mencionó, la IA requiere más redes abiertas e interoperabilidad. Cisco participa activamente en numerosos organismos de estándares y grupos de trabajo, incluyendo OIF, Alianza Ethernet, Óptica Conectable Lineal MSA, y Alianza del Centro de Datos Cuánticos—ayuda a avanzar en nuevas tecnologías, colaborar con otras organizaciones y mejorar las redes abiertas y la interoperabilidad. En OFC, Cisco demostrará interoperabilidad en las últimas plataformas de enrutamiento de Cisco, óptica del cliente

Leer más »
Scroll al inicio