El Portal de las Tecnologías para la Innovación

Chubut Digital

Plan de Ashevilleway: Cómo los Drones Redefinieron la Respuesta a Desastres Durante el Huracán Helene

En todo el mundo, los socorristas confían en la tecnología de drones para moverse más rápido, manténgase más seguro y tome decisiones críticas cuando más importa. Cuando ocurre un desastre, cada segundo cuenta. En todo el mundo, los socorristas confían en la tecnología de drones para moverse más rápido, manténgase más seguro y tome decisiones críticas cuando más importa. Esa realidad se centró en Asheville, Carolina del Norte, después de que el huracán Helene golpeara en 2024. La tormenta desató la destrucción en una escala que pocos anticiparon. Las rápidas inundaciones arrasaron los vecindarios, abrumaron los servicios de emergencia, cortaron las rutas de acceso críticas y eliminaron la electricidad en gran parte de la ciudad. Sin energía, las redes telefónicas y el servicio de Internet también disminuyeron, dejando a muchos residentes y agencias aislados de la comunicación y la información. Ante esta devastación, los métodos de respuesta tradicionales por sí solos no fueron suficientes –, por lo que el Departamento de Policía de Asheville recurrió a los drones como una herramienta esencial para la respuesta de emergencia. – Capitán Brandan Moore, Departamento de Policía de Asheville Trabajando en estrecha colaboración con Ovrwatch, el Departamento de Policía de Asheville desplegó 13 DJI Docks (una mezcla de DJI Dock, DJI Dock 2, y DJI Dock 3) en toda la ciudad, creando una red que transformó su capacidad de evaluar, responder y recuperarse. Compactas y construidas para operaciones durante todo el día, estas soluciones empresariales “drone-in-a-box” permiten flujos de trabajo automáticos y repetibles de drones – incluso en entornos remotos o desafiantes, lo que permite a los respondedores llegar a las áreas afectadas de manera más rápida, segura y efectiva que nunca.  Ojos en el Cielo, Ayuda en el Suelo A medida que las aguas de la inundación aumentaron, ver la situación se convirtió en un desafío urgente. Muchas áreas eran inalcanzables por vehículos terrestres, dejando a los socorristas con pocas opciones. Con sus DJI Docks, los respondedores podrían lanzar rápidamente drones, capturar vistas aéreas en vivo y dirigir equipos de rescate en tiempo real. Los drones también jugaron un papel clave en la seguridad pública. Con las calles convertidas en ríos, las respuestas tradicionales resultaron desafiantes. Los drones proporcionaron orientación aérea a los oficiales, lo que les permitió interceptar saqueadores y responder a áreas de difícil acceso. Al proporcionar inteligencia oportuna cuando más importaba, la tecnología sirvió como una herramienta confiable para proteger vidas y propiedades. – Jefe Mike Lamb, Departamento de Policía de Asheville A lo largo de las secuelas, los DJI Docks también ayudaron a mapear miles de acres de áreas dañadas por inundaciones, identificar vulnerabilidades en infraestructura crítica y entregar inteligencia vital a agencias estatales y locales. En particular, permitieron a los equipos evaluar los graves daños sufridos en las vías fluviales de Asheville, una fuente de agua clave para la ciudad, mucho más rápido de lo que hubiera sido posible por tierra. Un Plan para el futuro A medida que Asheville continúa su recuperación, las lecciones son claras: los drones se han convertido en una parte necesaria de cómo las comunidades se preparan y responden a las emergencias, pero su verdadero impacto depende de la colaboración y coordinación que respaldan su despliegue a escala.  Desde agencias federales y locales hasta proveedores de servicios y propietarios comerciales, una amplia coalición de partes interesadas unió fuerzas para permitir el despliegue y la continuidad de sus DJI Docks. Esto incluyó la cooperación de los propietarios privados para garantizar que los muelles pudieran colocarse en los tejados comerciales para ampliar la cobertura en toda la ciudad, el apoyo de socios de la industria como Ovrwatch para administrar las operaciones de vuelo y la coordinación centralizada entre las agencias para mantener los datos de drones accesibles y procesables. Este esfuerzo colectivo ha creado un plan para el uso efectivo de la tecnología de drones, uno que demuestra la importancia de la planificación coordinada y la responsabilidad compartida. Es importante destacar que la red establecida en respuesta a la tormenta no era solo una solución única. Sigue siendo un activo valioso para futuras emergencias, operaciones diarias de seguridad pública y uso potencial de Drone como First Responder (DFR) en Asheville. – Rhys Andersen, CEO, Ovrwatch En DJI, estamos orgullosos de apoyar a los socorristas que lideran el camino. En Asheville y más allá, la innovación de drones no solo está cambiando la respuesta de emergencia, sino que está ayudando a fortalecer la resiliencia de las comunidades de todo el mundo. DJI News. Traducido al español

Plan de Ashevilleway: Cómo los Drones Redefinieron la Respuesta a Desastres Durante el Huracán Helene Leer más »

NVIDIA Trae Ciberseguridad a Cada Fábrica de IA

El marco NVIDIA DOCA Argus detecta y responde a las amenazas en las cargas de trabajo de IA, y se integra a la perfección con los sistemas de seguridad empresarial para obtener información inmediata. A medida que las empresas adoptan cada vez más la IA, asegurando AI fábricas — donde se ejecutan flujos de trabajo complejos y agenticos — nunca ha sido más crítico. NVIDIA está trayendo ciberseguridad en tiempo de ejecución a cada fábrica de IA con un nuevo DOCA NVIDIA marco de software, parte de la NVIDIA ciberseguridad AI plataforma. Corriendo en el BlueField NVIDIA plataforma de red, NVIDIA DOCA Argus opera en todos los nodos para detectar y responder de inmediato a los ataques a las cargas de trabajo de IA, integrándose a la perfección con los sistemas de seguridad empresariales para ofrecer información instantánea sobre amenazas. El marco DOCA Argus proporciona detección de amenazas en tiempo de ejecución mediante el uso de análisis forense de memoria avanzada para monitorear amenazas en tiempo real, ofreciendo velocidades de detección hasta 1,000 veces más rápidas que las soluciones sin agente existentes — sin afectar el rendimiento del sistema. A diferencia de las herramientas convencionales, Argus se ejecuta independientemente del host, sin necesidad de agentes, integración o dependencia de los recursos basados en el host. Este diseño sin agente y sin sobrecarga mejora la eficiencia del sistema y garantiza una seguridad resistente en cualquier entorno informático de IA, incluidas las infraestructuras en contenedores y multi-inquilino. Al operar fuera del host, Argus permanece invisible para los atacantes — incluso en caso de un compromiso del sistema. Los profesionales de ciberseguridad pueden integrar sin problemas el marco con sus plataformas de seguridad SIEM, SOAR y XDR, lo que permite un monitoreo continuo y una mitigación automatizada de amenazas y extiende sus capacidades de ciberseguridad existentes para la infraestructura de IA. NVIDIA BlueField es un componente de seguridad fundamental para cada fábrica de IA, que proporciona protección integrada y centrada en datos para las cargas de trabajo de IA a escala. Al combinar las capacidades de aceleración de BlueFieldics con la detección proactiva de amenazas DOCA Argus’, las empresas pueden asegurar las fábricas de IA sin comprometer el rendimiento o la eficiencia. Cisco está colaborando con NVIDIA para ofrecer una Fábrica de IA segura con arquitectura NVIDIA que simplifique la forma en que las empresas implementan y protegen la infraestructura de IA a escala. La arquitectura incorpora seguridad en cada capa de la fábrica de IA, asegurando que la protección en tiempo de ejecución se incorpore desde el principio en lugar de atornillarse después de la implementación. “Ahora es el momento de que las empresas avancen con la IA, pero la clave para desbloquear casos de uso innovadores y permitir una amplia adopción es la seguridad, dijo Jeetu Patel, vicepresidente ejecutivo y director de productos de Cisco. “NVIDIA y Cisco están proporcionando a las empresas la infraestructura que necesitan para escalar con confianza la IA mientras protegen sus datos más valiosos DOCA Argus y BlueField son parte de la plataforma de IA de ciberseguridad de NVIDIA — una plataforma informática acelerada y de pila completa diseñada específicamente para la protección impulsada por IA. Combina la seguridad centrada en datos de BlueFieldields y la detección de amenazas en tiempo real de Argus’ con el software NVIDIA AI Enterprise — incluyendo el NVIDIA Morfeo marco de IA de ciberseguridad — para ofrecer visibilidad y control en una fábrica de IA. También aprovecha IA Agentic percibir, razonar y responder a las amenazas de forma autónoma en tiempo real. Detección Optimizada de Amenazas de Carga de Trabajo de IA Las empresas están inundadas de volúmenes masivos de datos, lo que dificulta identificar amenazas reales. La creciente adopción de IA Agentic, con los modelos de IA y los agentes autónomos que operan a escala empresarial para conectar sin problemas datos, aplicaciones y usuarios, brinda oportunidades sin precedentes para obtener información de los datos — al tiempo que introduce la necesidad de una protección avanzada que pueda mantener el ritmo. DOCA Argus está afinado y optimizado utilizando los conocimientos del propio equipo de seguridad de NVIDIAia, surgiendo solo amenazas reales y validadas. Al centrarse en actores de amenazas conocidos y eliminar falsos positivos, el marco proporciona a las empresas inteligencia procesable, reduciendo la fatiga de alerta y racionalizando las operaciones de seguridad. Argus está diseñado específicamente para proteger cargas de trabajo en contenedores como NIM NVIDIA microservicios, que incorporan inteligencia y validación de amenazas del mundo real para asegurar cada capa de la pila de aplicaciones de IA. “Los defensores cibernéticos necesitan herramientas sólidas para proteger eficazmente las fábricas de IA, que sirven como base para el razonamiento agentic,” dijo David Reber, director de seguridad de NVIDIA. “El marco DOCA Argus ofrece información de seguridad en tiempo real para permitir la detección y respuesta autónomas — equipando a los defensores con una ventaja de datos a través de intelligence.” accionable Empieza con Argus DOCA y conozca a NVIDIA en la Conferencia RSA en San Francisco, hasta el Jueves 1 de Mayo. NVIDIA Blog. O. I. Traducido al español

NVIDIA Trae Ciberseguridad a Cada Fábrica de IA Leer más »

La inteligencia artificial mejora la planificación de la movilidad aérea

Lincoln Laboratory está haciendo la transición de herramientas al 618o Centro de Operaciones Aéreas para optimizar la logística de transporte global. Todos los días, cientos de mensajes de chat fluyen entre pilotos, tripulación y controladores del Comando de Movilidad Aérea 618o Centro de Operaciones Aéreas (AOC). Estos controladores dirigen una flota de miles de aviones, haciendo malabares con variables para determinar qué rutas volar, cuánto tiempo llevará alimentar o cargar los suministros, o quién puede volar esas misiones. Su planificación de la misión permite a los Estados Unidos. Fuerza Aérea para responder rápidamente a las necesidades de seguridad nacional en todo el mundo. «Se necesita mucho trabajo para obtener un sistema de defensa antimisiles en todo el mundo, por ejemplo, y esta coordinación solía hacerse a través del teléfono y el correo electrónico. Ahora, estamos utilizando el chat, que crea oportunidades para que la inteligencia artificial mejore nuestros flujos de trabajo», dice el coronel Joseph Monaco, director de estrategia de la 618a AOC, que es el centro de operaciones aéreas más grande del Departamento de Defensa. El 618o AOC está patrocinando el Laboratorio Lincoln para desarrollar estas herramientas de inteligencia artificial, a través de un proyecto llamado Conversational AI Technology for Transition (CAITT). Durante una visita al Laboratorio Lincoln desde la sede de la 618a AOC en la Base de la Fuerza Aérea Scott en Illinois, el Coronel Mónaco, el Teniente Coronel Tim Heaton y la Capitán Laura Quitiquit se reunieron con investigadores de laboratorio para discutir CAITT. CAITT es parte de un esfuerzo más amplio para la transición de la tecnología de IA a una importante iniciativa de modernización de la Fuerza Aérea, llamada Next Generation Information Technology for Mobility Readiness Enhancement (NITMRE). El tipo de IA que se utiliza en este proyecto es el procesamiento del lenguaje natural (PNL), que permite a los modelos leer y procesar el lenguaje humano. «Estamos utilizando la PNL para mapear las principales tendencias en las conversaciones de chat, recuperar y citar información específica, e identificar y contextualizar los puntos críticos de decisión», dice Courtland VanDam, investigador del Laboratorio Lincoln Grupo de Tecnología y Sistemas de IA, que está liderando el proyecto. CAITT abarca un conjunto de herramientas que aprovechan la PNL. Una de las herramientas más maduras, el resumen de temas, extrae temas de tendencias de mensajes de chat y formatea esos temas en una pantalla fácil de usar que destaca conversaciones críticas y problemas emergentes. Por ejemplo, un tema de tendencia podría leer, «Los miembros de la tripulación que faltan visas del Congo, potencial de retraso.» La entrada muestra el número de chats relacionados con el tema y resume en viñetas los puntos principales de las conversaciones, vinculando a intercambios de chat específicos. «Nuestras misiones dependen mucho del tiempo, por lo que tenemos que sintetizar mucha información rápidamente. Esta característica realmente puede indicarnos dónde deben centrarse nuestros esfuerzos», dice Mónaco. Otra herramienta en producción es la búsqueda semántica. Esta herramienta mejora el motor de búsqueda del servicio de chat, que actualmente devuelve resultados vacíos si los mensajes de chat no contienen todas las palabras de la consulta. Usando la nueva herramienta, los usuarios pueden hacer preguntas en un formato de lenguaje natural, como por qué un avión específico se retrasa y recibir resultados inteligentes. «Incorpora un modelo de búsqueda basado en redes neuronales que puede comprender la intención del usuario de la consulta e ir más allá de la coincidencia de términos», dice VanDam. Otras herramientas en desarrollo tienen como objetivo agregar automáticamente a los usuarios a las conversaciones de chat que se consideren relevantes para su experiencia, predecir la cantidad de tiempo en tierra necesario para descargar tipos específicos de carga de las aeronaves y resumir los procesos clave de los documentos regulatorios como una guía para los operadores a medida que desarrollan planes de misión. El proyecto CAITT surgió del Acelerador de IA DAF–MIT, un esfuerzo triple entre el MIT, el Laboratorio Lincoln y el Departamento de la Fuerza Aérea (DAF) para desarrollar y hacer la transición de algoritmos y sistemas de IA para avanzar tanto en el DAF como en la sociedad. «A través de nuestra participación en AI Accelerator a través del proyecto NITMRE, nos dimos cuenta de que podíamos hacer algo innovador con toda la información de chat no estructurada en el 618o AOC», dice Heaton. A medida que los investigadores de laboratorio avanzan en sus prototipos de herramientas CAITT, han comenzado a hacer la transición al 402nd Software Engineering Group, un proveedor de software para el Departamento de Defensa. Ese grupo implementará las herramientas en el entorno de software operativo en uso por el 618o AOC.  MIT News. F. K. Traducido al español

La inteligencia artificial mejora la planificación de la movilidad aérea Leer más »

Postal de Intel Foundry Direct Connect: The Ultimate Factory Tour

Un recorrido virtual a través de una fábrica de semiconductores Intel Foundry puede llevarlo a lugares que incluso los técnicos e ingenieros nunca ven. A: Los que sueñan con ver fichas hechas De: Intel Foundry Direct Connect, San José, California. | 29 de abril de 2025 Para todos los que no son técnicos o ingenieros de fabricación de semiconductores, un recorrido por una fábrica de Intel Foundry es un privilegio extremadamente raro. Requiere un traje especial de conejito de cuerpo completo y un guía experto para mantenerlo fuera de problemas, sin mencionar un boleto a través de la seguridad del edificio – un pase que no está a la venta. En Intel Foundry Direct Connect, los asistentes tuvieron la oportunidad de disfrutar de lo que podría ser la gira de fabricación de chips más conveniente y completa del planeta. Simplemente poniéndose un auricular VR liviano, los visitantes hicieron un recorrido fabuloso virtual de 7 minutos que abarcó obleas desnudas bañándose en su primera dosis de fotorresistencia a dispositivos completamente empaquetados sometidos a pruebas automatizadas. El recorrido incluso cayó dentro de las máquinas para correr (incluso los técnicos pueden hacerlo) y cruzó entre instalaciones y ubicaciones sin que los espectadores dejaran la comodidad de sus sillas giratorias. Los chips en las cámaras grabaron las imágenes; los chips en las computadoras representaron el video inmersivo final; y los chips en los auriculares entregaron las vistas en visión estéreo – de chips que se están haciendo. Es un círculo muy meta de la vida del silicio. P.S. Intel Foundry Reúne Clientes y Socios, Esboza Prioridades | Intel Foundry Direct Connect 2025 (Kit de Prensa) Intel News. Traducido al español

Postal de Intel Foundry Direct Connect: The Ultimate Factory Tour Leer más »

Los datos de tutores inteligentes ayudan a predecir los resultados académicos de K-12, según un estudio

Una nueva investigación muestra que los datos de corto horizonte pueden ayudar a predecir el rendimiento de los estudiantes a largo plazo, lo que podría ayudar en la personalización de edtech y la toma de decisiones de los maestros. El aprendizaje digital se ha convertido en la norma en la educación, pero evaluar su efectividad sigue siendo un desafío. En la configuración K-12, los resultados de un sistema de tutoría o juego educativo a menudo llegan mucho después de que los estudiantes se hayan comprometido con la herramienta. Las evaluaciones poco frecuentes, como los exámenes estatales al final de un año escolar, dificultan la identificación de los estudiantes que pueden sobresalir o fallar, y retrasan a los investigadores para medir el impacto del software educativo. Investigadores de Stanford, War Child Alliance y Carnegie Learning investigaron si los modelos de aprendizaje automático podrían usar los registros de los estudiantes desde sus primeras horas de uso de una herramienta de software educativo para predecir los resultados finales de las pruebas externas después de meses de uso. El estudio, “Predecir los Resultados de los Estudiantes a Largo Plazo de los Datos de Registro de EdTech a Corto Plazo”, presentado en LAK ’25: Proceedings of the 15th International Learning Analytics and Knowledge Conference 2025, encontró que los datos de solo dos a cinco horas de actividad con un tutor inteligente o un juego de aprendizaje pueden proporcionar información valiosa sobre cómo se desempeñarán los estudiantes en evaluaciones externas estándar varios meses después. “En educación, a menudo estamos interesados en resultados retrasados como las evaluaciones de fin de año, pero sería útil si pudiéramos predecir esos resultados utilizando cantidades más cortas de datos de plataformas de software educativo, dice el autor principal Emma Brunskillprofesor asociado de informática y miembro de la facultad del Instituto Stanford de Inteligencia Artificial Centrada en el Humano (HAI). “Informado por tales predicciones, los maestros o el software en sí podrían ofrecer un apoyo más personalizado a los estudiantes que están luchando y plantear nuevos desafíos para aquellos que están prosperando.” Encontrar las características comunes La investigación previa en esta área se ha centrado en el uso de datos de un año de productos edtech para predecir los resultados en los exámenes de fin de año, un método que lleva mucho tiempo generar resultados. Otros estudios han utilizado unos minutos de actividad estudiantil para predecir los resultados a corto plazo una hora más tarde, lo que no proporciona información sobre el impacto a más largo plazo de las herramientas tecnológicas. Los investigadores de Stanford querían ver si podían obtener predicciones significativas para el rendimiento de fin de año utilizando datos de un período de tiempo relativamente corto con un juego educativo o un tutor inteligente. Apoyado en parte por un Stanford HAI Seed Research Grant, el equipo trató de examinar si una pequeña cantidad de uso de la plataforma edtech, en el orden de unas pocas horas, podría usarse con algoritmos de aprendizaje automático para predecir los resultados de las pruebas externas de los estudiantes después de varios meses de uso.El equipo utilizó datos de tres herramientas tecnológicas educativas diferentes y grupos de estudiantes para evaluar qué tan bien podría generalizarse su enfoque en una variedad de plataformas y poblaciones. El primer conjunto de datos provino de una colaboración con Canoct Espera para Aprender (CWTL Reading), un producto de juego de alfabetización diseñado para apoyar a los niños que viven en áreas afectadas por conflictos. Para este estudio, la organización matriz, War Child, compartió datos de sus estudiantes en Uganda. El segundo y tercer conjunto de datos provino de dos sistemas de tutoría de matemáticas, iReady y MATHia, ambos utilizados por estudiantes de secundaria en los Estados Unidos. En educación, a menudo estamos interesados en resultados retrasados como evaluaciones de fin de año, pero sería útil si pudiéramos predecir esos resultados utilizando cantidades más cortas de datos de plataformas de software educativoEmma BrunskillProfesor asociado de informática y afiliado de la facultad de HAI Gao Ge, un académico postdoctoral en ciencias de la computación que está afiliado al grupo AI for Human Impact (AI4HI) y Laboratorio IA Stanford (SAIL), dice que era importante identificar las características comunes que podrían extraerse de los datos de registro de cada plataforma, sin requerir un conocimiento específico del dominio de la herramienta, la demografía de los estudiantes o los datos de rendimiento previos para los estudiantes. Usando una metodología de árbol de decisión –, una técnica que divide la información en grupos más pequeños y reveladores – para descubrir qué factores son los más importantes para el rendimiento de students’ los académicos encontraron que características como el porcentaje de veces que el estudiante tuvo éxito en un problema (su tasa de éxito) y el número promedio de veces que un estudiante intentó un problema se clasificaron como criterios principales que podrían generalizarse en todas las plataformas. “Al centrarnos en características ampliamente similares que probablemente estén presentes en muchas plataformas educativas, podemos evaluar las similitudes y diferencias entre los entornos,” explica. Con el conjunto de características determinado, el equipo estaba listo para comparar el rendimiento de tres modelos populares de aprendizaje automático para predecir los resultados de los estudiantes para el horizonte temporal dado y en los tres contextos de aprendizaje. Identificando los extremos Gao y sus colegas destacan varios hallazgos clave de este estudio. En primer lugar, los resultados muestran que los datos de dos a cinco horas de uso del software edtech son suficientes para predecir si es probable que un estudiante caiga en los extremos – en el quintil inferior o en el quintil superior – en una evaluación retrasada que ocurre después de meses de usar la herramienta. Aunque los modelos de aprendizaje automático no pudieron predecir los resultados precisos de los estudiantes en un examen, como una puntuación exacta o la colocación del percentil en un examen, los investigadores sugieren que poder identificar los resultados más bajos y más altos en un examen es información valiosa para desarrolladores de software y educadores por igual. “Nuestros hallazgos

Los datos de tutores inteligentes ayudan a predecir los resultados académicos de K-12, según un estudio Leer más »

Cinco Perspectivas para la Adopción de IA Empresarial Más Inteligente

Aprenda cómo las empresas están abordando los desafíos de la IA, escalando soluciones más inteligentes y desbloqueando información para transformar las estrategias y los resultados comerciales. La inteligencia artificial ya no es un concepto futurista o una herramienta exclusiva para las empresas más avanzadas. Para las empresas a nivel mundial, la IA se está convirtiendo en una parte central de la transformación empresarial, lo que permite una toma de decisiones más inteligente, una mayor eficiencia y una mayor ventaja competitiva. Pero, ¿cómo están adoptando las empresas la IA y qué desafíos enfrentan para escalarla de manera efectiva? Para responder a estas preguntas, realizamos el Encuesta de adopción de IA empresarial de Dell Technologies3,800 tomadores de decisiones de TI (ITDM) y profesionales de IA en cinco países. Nuestros hallazgos dan una idea del estado actual del uso global de IA y los aceleradores que ayudan a las empresas a cumplir sus objetivos comerciales de IA y obtener valor. Siga leyendo para conocer cinco ideas clave que surgieron de nuestra investigación. 1. Los datos son la clave para poner en orden su casa de IA La IA es tan buena como los datos en los que se ejecuta, y las empresas están luchando para administrar y aprovechar sus datos de manera efectiva. Empresas citadas calidad de los datos, disponibilidad, gestión y seguridad como las principales barreras técnicas para la implementación de la IA. Sin datos limpios, bien organizados y accesibles, incluso los modelos avanzados de IA tendrán un rendimiento inferior. Estos desafíos sugieren que las organizaciones deberían centrarse en desarrollar estrategias que prioricen la integración de datos sin interrupciones, medidas de seguridad mejoradas y soluciones escalables para grandes conjuntos de datos. 2. La flexibilidad es imprescindible para las colocaciones de carga de trabajo de IA Nuestra investigación muestra que un enfoque multicloud es una opción atractiva para las empresas que buscan ejecutar sus cargas de trabajo de IA: Las cargas de trabajo de IA con el mayor impacto a menudo están vinculadas a datos que aún se encuentran en sus cuatro paredes.  La nube pública ofrece comodidad para experimentar, pero viene con un alto precio: a Análisis ESG 2024 se encontró que la inferencia local puede ser hasta un 75% más rentable que la nube pública. Para inversiones escalables de IA a largo plazo, las soluciones locales a menudo permiten un mejor ROI, que la mayoría de las organizaciones han descubierto después de calcular su TCO. Pero no son todos los dólares y centavos: las implementaciones locales también ofrecen una mejor seguridad y gobernanza, lo que es especialmente útil para sectores con necesidades de cumplimiento estrictas como finanzas y atención médica. Esto pone de relieve la necesidad de considerar cuidadosamente TCO para diferentes casos de uso y colocar cargas de trabajo de IA con el equilibrio adecuado de rendimiento, seguridad y escalabilidad. 3. Aumente la eficiencia del centro de datos aprovechando la potencia disponible A pesar de la creciente discusión sobre la energía y el enfriamiento como un cuello de botella para la adopción de la IA, nuestra encuesta indicó que las empresas pueden pasar por alto la energía atrapada y las soluciones disponibles en la actualidad: Si bien los operadores de centros de datos se preocupan por los requisitos de energía para escalar la IA, están dejando mucha energía sobre la mesa. Las empresas deberían maximice su capacidad de potencia del centro de datos existente antes de invertir en costosas modificaciones o nuevas construcciones. La potencia adicional atrapada también se puede liberar actualizando la infraestructura existente de servidores en rack 14G a 16/17G. De cara al futuro, la creciente adopción de innovaciones como la refrigeración líquida directa a chip será un factor clave para abordar las limitaciones de potencia y rendimiento de la GPU, al tiempo que reduce los costos de enfriamiento del centro de datos y aumenta la escalabilidad para las implementaciones de IA empresarial. 4. Sesgo hacia el código abierto y necesidad de soporte para implementar cargas de trabajo de IA locales Las organizaciones se están moviendo hacia una mayor transparencia y flexibilidad en sus ecosistemas de IA, así como proveedores que ofrecen una ventanilla única: Este cambio hacia marcos de código abierto destaca la demanda de soluciones personalizables, transparentes y rentables. Los ecosistemas abiertos ofrecen amplias capacidades más allá de lo que cualquier proveedor puede proporcionar. Para satisfacer sus necesidades específicas, los responsables de la toma de decisiones de TI están buscando proveedores con soluciones de IA de extremo a extremo que puedan ayudarlos a integrar completamente la IA en todo su estado de TI. 5. Los modelos pequeños que se ejecutan en el dispositivo ofrecen otro nivel de flexibilidad para los casos de uso de IA Las PC con IA son una opción atractiva para democratizar el acceso a la IA, especialmente aprovechando los modelos de lenguaje pequeño (SLM): A diferencia de sus homólogos más grandes, los SLM son más rentables y energéticamente eficientes, y requieren menos potencia computacional, a la vez que son suficientes para muchas aplicaciones, como los asistentes de codificación. ¿Qué podría significar esto para las empresas? Los SLM permiten el procesamiento de IA en tiempo real en el dispositivo, lo que no solo reduce la latencia, sino que también mejora la productividad y minimiza el impacto ambiental. La adopción empresarial de PC con IA podría mejorar aún más la accesibilidad de las soluciones de IA para equipos de todos los tamaños, capacitando a los empleados con herramientas poderosas para la colaboración y la automatización. Empoderar Su Viaje de IA con Confianza ¿Qué significa esto para las empresas de hoy? Según nuestros hallazgos, los aceleradores clave de la adopción de la IA son: La IA se ha vuelto esencial, no opcional, para impulsar la ventaja competitiva y la excelencia operativa en el panorama empresarial actual. Si bien tiene el potencial de impulsar eficiencias generalizadas e innovaciones innovadoras, el éxito de una organización estará determinado por las elecciones que tome ahora. ¿Quieres dar el siguiente paso? En Dell Technologies, estamos aquí para ayudarlo a construir una estrategia de IA que funcione para

Cinco Perspectivas para la Adopción de IA Empresarial Más Inteligente Leer más »

Scuderia Ferrari y HP Fuse Technology and Design con Special Livery para el Gran Premio de Miami

 Scuderia Ferrari and HP Inc. (NYSE: HPQ) reveló hoy una librea especial co-diseñada, antes del Gran Premio de Miami, marcando el primer año de su asociación por el título.  Noticias Destacados: Miami30 De abril de 2025 — Scuderia Ferrari and HP Inc. (NYSE: HPQ) reveló hoy una librea especial co-diseñada, antes del Gran Premio de Miami, marcando el primer año de su asociación por el título. Presentada esta tarde en el centro de Miami por los pilotos de la Scuderia Ferrari HP y el Director del Equipo, Fred Vasseur, la librea de vanguardia es el resultado de una profunda colaboración entre las dos compañías, superando los límites del diseño visual y el rendimiento. La librea combina el rojo Ferrari con el blanco y el azul eléctrico de HPers, aplicado utilizando nuevas tecnologías co-diseñadas que allanarán el camino para diseños aún más llamativos en el futuro. Co-Ingeniería para el Rendimiento Como parte de una serie de proyectos conjuntos en curso entre los ingenieros de HP y Scuderia Ferrari, el desarrollo de la librea de Miami se destaca como un claro ejemplo de innovación en acción. Los equipos de ingeniería de Ferrari en Maranello y HP en Barcelona trabajaron mano a mano y experimentaron con tecnologías y materiales para lograr el resultado final. Se utilizaron técnicas innovadoras para producir la película que cubre parte del SF-25. Estos representan un importante paso adelante sobre la tecnología utilizada el año pasado, creando una envoltura de automóvil que es hasta un 14% más ligera y hasta un 17% más delgada, con una mayor resistencia térmica1. La película no contiene PVC, es totalmente reciclable y se aplica utilizando la tecnología de látex de última generación de HPV. La Fórmula 1 está en constante evolución, y ambas compañías continuarán refinando las tecnologías de envoltura juntas — haciéndolas aún más eficientes, lo que permite una estética más audaz y una innovación de diseño al tiempo que reduce el tiempo requerido para aplicar la película. Miami GP Línea Especial El diseño especial de librea para este fin de semana refleja la evolución de esta asociación y el esfuerzo compartido detrás de ella. Por primera vez en la historia de los Scuderiaaars, la librea de Charles Leclercocers y Lewis Hamiltons SF-25s presenta elementos gráficos asimétricos. Los toques de azul eléctrico característico de HPers aparecen en las alas delantera y trasera, aunque el rojo de Ferrari sigue siendo el color dominante. Las ruedas están pintadas de blanco, creando un aspecto limpio y moderno que encarna la visión innovadora del equipo. Esta librea no es solo un ejercicio de estilo, es una celebración tangible de ambición compartida – dos compañías, dos visiones, unidas por la tecnología y la creatividad, trabajando juntas para empujar los límites de lo que es posible. Construyendo el Ambiente de Trabajo del Futuro La colaboración también está transformando la forma en que Ferrari trabaja en la pista y en Maranello, con la instalación de cientos de computadoras portátiles, monitores, estaciones de trabajo potentes e impresoras HP en la fábrica y en las oficinas móviles de los equipos en los eventos del Campeonato Mundial de Fórmula 1. Gracias a esta última generación de tecnología de alto rendimiento y fácil de usar, también se ha mejorado la eficiencia empresarial, la productividad y la colaboración. Esta asociación continua entre HP y Ferrari ejemplifica cómo la tecnología puede mejorar las experiencias de trabajo, promoviendo una mayor satisfacción y productividad, mientras que la integración tecnológica continua de HP en Ferrari crea un ambiente de trabajo positivo para que los empleados prosperen. En la Zona de Ventiladores y en la Pista Además de la revelación especial de la librea, se llevarán a cabo una variedad de actividades en el área de HP Experience en el Mercado de Wynwood, mostrando cómo la tecnología HP está apoyando a la Scuderia Ferrari y cómo puede capacitar a los trabajadores y empresas de todo el mundo para lograr una mayor satisfacción laboral. A partir de mañana, los fanáticos que se dirigen a la pista de carreras también notarán que los trajes y cascos de carrera de drivers’ han sido diseñados para que coincidan con la librea especial creada para la carrera de Miami. “Nuestra colaboración con Ferrari es un testimonio de cómo HP está empujando los límites de lo que es posible,” dijo Enrique Lores, Presidente y CEO de HP Inc. “Juntos, estamos aprovechando la tecnología, el rendimiento y la innovación para crear y co-diseñar experiencias excepcionales dentro y fuera de la pista. A medida que HP continúa ofreciendo soluciones de vanguardia para definir el Futuro del Trabajo, estamos estableciendo nuevos estándares para la colaboración y la innovación Benedetto Vigna, CEO de Ferrari, comentó: “Todo comenzó hace un año en el Gran Premio de Miami y, desde entonces, hemos visto cuán profundamente alineadas están nuestras dos compañías cuando se trata de la importancia de las personas para impulsar la innovación, luchar por la excelencia y superar los límites. “Este Gran Premio marcará el regreso al lugar donde comenzó la colaboración entre nuestras dos compañías, con una celebración de este viaje con una nueva y audaz librea asimétrica. Es una expresión de nuestra creencia compartida en el poder del diseño, la tecnología y el rendimiento para impulsar un cambio significativo. “Más allá de la pista de carreras, esta asociación también nos ha permitido elevar la forma en que trabajamos todos los días. Gracias a los dispositivos y tecnologías de vanguardia de HPV, hemos podido mejorar la eficiencia, la conectividad y la flexibilidad de nuestros espacios de trabajo, proporcionando a cada miembro de nuestro equipo el mejor entorno posible para desempeñarse al más alto nivel. Es un símbolo de lo lejos que nos hemos unido y una visión del camino por delante. Weizre se enorgullece de continuar esta colaboración con HP mientras miramos hacia un futuro muy prometedor.” HP News. Traducido al español

Scuderia Ferrari y HP Fuse Technology and Design con Special Livery para el Gran Premio de Miami Leer más »

Nuevas soluciones de enfriamiento de pruebas de chip para microelectrónica apilada

Evitar que los circuitos integrados 3D se sobrecalienten es clave para permitir su uso generalizado. A medida que crece la demanda de sistemas de microelectrónica más potentes y eficientes, la industria está recurriendo a la integración 3D — apilando chips uno encima del otro. Esta arquitectura de capas verticales podría permitir que los procesadores de alto rendimiento, como los utilizados para la inteligencia artificial, se empaqueten estrechamente con otros chips altamente especializados para la comunicación o la imagen. Pero los tecnólogos de todo el mundo se enfrentan a un gran desafío: cómo evitar que estas pilas se sobrecalienten. Ahora, MIT Lincoln Laboratory ha desarrollado un chip especializado para probar y validar soluciones de enfriamiento para pilas de chips empaquetados. El chip disipa una potencia extremadamente alta, imitando los chips lógicos de alto rendimiento, para generar calor a través de la capa de silicio y en puntos calientes localizados. Luego, a medida que se aplican tecnologías de enfriamiento a la pila empaquetada, el chip mide los cambios de temperatura. Cuando se intercala en una pila, el chip permitirá a los investigadores estudiar cómo se mueve el calor a través de las capas de la pila y evaluar el progreso para mantenerlas frescas.  «Si tiene un solo chip, puede enfriarlo desde arriba o desde abajo. Pero si comienzas a apilar varios chips uno encima del otro, el calor no tiene dónde escapar. Hoy en día no existen métodos de enfriamiento que permitan a la industria apilar múltiplos de estos chips realmente de alto rendimiento», dice Chenson Chen, quien dirigió el desarrollo del chip con Ryan Keech, ambos laboratorios Grupo de Materiales Avanzados y Microsistemas. El chip de evaluación comparativa ahora se está utilizando en HRL Laboratories, una compañía de investigación y desarrollo copropiedad de Boeing y General Motors, a medida que desarrollan sistemas de enfriamiento para sistemas integrados heterogéneos (3DHI) 3D. La integración heterógena se refiere al apilamiento de chips de silicio con chips no de silicio, como los semiconductores III-V utilizados en sistemas de radiofrecuencia (RF).    «Los componentes de RF pueden calentarse mucho y funcionar a potencias muy altas — agrega una capa adicional de complejidad a la integración 3D, por lo que es tan necesario tener esta capacidad de prueba», dice Keech. La Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) financió el desarrollo del chip de evaluación comparativa del laboratorio para apoyar el programa HRL. Toda esta investigación proviene de los Sistemas de Gestión Térmica Integrada en Miniatura de DARPA para la Integración Heterogénea 3D (Minitherms3D) programa. Para el Departamento de Defensa, 3DHI abre nuevas oportunidades para sistemas críticos. Por ejemplo, 3DHI podría aumentar el rango de sistemas de radar y comunicación, permitir la integración de sensores avanzados en plataformas pequeñas como vehículos aéreos no tripulados o permitir que los datos de inteligencia artificial se procesen directamente en sistemas desplegados en lugar de centros de datos remotos. El chip de prueba se desarrolló a través de la colaboración entre diseñadores de circuitos, expertos en pruebas eléctricas y técnicos en el laboratorio Laboratorio Microelectrónica.  El chip cumple dos funciones: generar calor y detectar temperatura. Para generar calor, el equipo diseñó circuitos que podrían operar a densidades de potencia muy altas, en el rango de kilovatios por centímetro cuadrado, comparables a las demandas de potencia proyectadas de los chips de alto rendimiento hoy y en el futuro. También replicaron el diseño de los circuitos en esos chips, permitiendo que el chip de prueba sirviera como un sustituto realista.  «Adaptamos nuestra tecnología de silicio existente para diseñar esencialmente calentadores a escala de chips», dice Chen, quien aporta años de integración compleja y experiencia en diseño de chips al programa. En la década de 2000, ayudó al laboratorio a ser pionero en la fabricación de circuitos integrados de dos y tres niveles, liderando el desarrollo temprano de la integración 3D. Los calentadores del chip emulan tanto los niveles de fondo de calor dentro de una pila como los puntos calientes localizados. Los puntos calientes a menudo ocurren en las áreas más enterradas e inaccesibles de una pila de chips, lo que dificulta que los desarrolladores de chips 3D evalúen si los esquemas de enfriamiento, como los microcanales que entregan líquido frío, están llegando a esos puntos y son lo suficientemente efectivos. Ahí es donde entran los elementos de detección de temperatura. El chip se distribuye con lo que Chen compara con los «pequeños termómetros» que leen la temperatura en múltiples ubicaciones a través del chip a medida que se aplican refrigerantes. Estos termómetros son en realidad diodos, o interruptores que permiten que la corriente fluya a través de un circuito a medida que se aplica voltaje. A medida que los diodos se calientan, la relación corriente-voltaje cambia. «Podemos verificar el rendimiento de un diodo y saber que es de 200 grados C, o 100 grados C, o 50 grados C, por ejemplo», dice Keech. «Pensamos creativamente sobre cómo los dispositivos podrían fallar por el sobrecalentamiento, y luego usamos esas mismas propiedades para diseñar herramientas de medición útiles.» Chen y Keech — junto con otros expertos en diseño, fabricación y pruebas eléctricas en todo el laboratorio — ahora están colaborando con los investigadores de HRL Laboratories mientras combinan el chip con nuevas tecnologías de enfriamiento e integran esas tecnologías en una pila 3DHI que podría aumentar la potencia de la señal de RF. «Necesitamos enfriar el equivalente de calor de más de 190 CPU portátiles [unidades de procesamiento central], pero en el tamaño de un solo paquete de CPU», dijo Christopher Roper, investigador principal de HRL, en un reciente comunicado de prensa anunciando su programa. Según Keech, la línea de tiempo rápida para entregar el chip fue un desafío superado por el trabajo en equipo a través de todas las fases del diseño, fabricación, prueba e integración heterogénea 3D del chip. «Las arquitecturas apiladas se consideran la próxima frontera para la microelectrónica», dice. «Queremos ayudar al gobierno de los Estados Unidos a salir adelante en la búsqueda de formas de integrarlos de manera efectiva y

Nuevas soluciones de enfriamiento de pruebas de chip para microelectrónica apilada Leer más »

Los ingenieros del MIT avanzan hacia una computadora cuántica tolerante a fallas

Los investigadores lograron un tipo de acoplamiento entre átomos artificiales y fotones que podría permitir la lectura y el procesamiento de la información cuántica en unos pocos nanosegundos. En el futuro, las computadoras cuánticas podrían simular rápidamente nuevos materiales o ayudar a los científicos a desarrollar modelos de aprendizaje automático más rápidos, abriendo la puerta a muchas nuevas posibilidades. Pero estas aplicaciones solo serán posibles si las computadoras cuánticas pueden realizar operaciones extremadamente rápido, por lo que los científicos pueden realizar mediciones y realizar correcciones antes de que las tasas de error combinadas reduzcan su precisión y confiabilidad. La eficiencia de este proceso de medición, conocido como lectura, se basa en la fuerza del acoplamiento entre fotones, que son partículas de luz que transportan información cuántica, y átomos artificiales, unidades de materia que a menudo se utilizan para almacenar información en una computadora cuántica. Ahora, los investigadores del MIT han demostrado lo que creen que es el acoplamiento no lineal más fuerte de luz-materia jamás logrado en un sistema cuántico. Su experimento es un paso hacia la realización de operaciones cuánticas y lecturas que podrían realizarse en unos pocos nanosegundos. Los investigadores utilizaron una nueva arquitectura de circuito superconductor para mostrar un acoplamiento no lineal de luz-materia que es aproximadamente un orden de magnitud más fuerte que las demostraciones anteriores, lo que podría permitir que un procesador cuántico funcione aproximadamente 10 veces más rápido. Todavía hay mucho trabajo por hacer antes de que la arquitectura pueda usarse en una computadora cuántica real, pero demostrar la física fundamental detrás del proceso es un paso importante en la dirección correcta, dice Yufeng “Bright” Ye SM ’20, PhD ’24, autor principal de un artículo sobre esta investigación. “Esto realmente eliminaría uno de los cuellos de botella en la computación cuántica. Por lo general, debe medir los resultados de sus cálculos entre rondas de corrección de errores. Esto podría acelerar la rapidez con la que podemos alcanzar la etapa de computación cuántica tolerante a fallas y poder obtener aplicaciones y valor del mundo real de nuestras computadoras cuánticas, dice Ye. En el artículo se le unen el autor principal Kevin OaBrien, profesor asociado e investigador principal en el Laboratorio de Investigación de Electrónica del MIT que dirige el Quantum Coherent Electronics Group en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación (EECS), así como otros en el MIT, MIT Lincoln Laboratory y la Universidad de Harvard. La investigación aparece hoy en Naturaleza Comunicaciones. Un nuevo acoplador Esta demostración física se basa en años de investigación teórica en el grupo OaBrien. Después de que Ye se unió al laboratorio como estudiante de doctorado en 2019, comenzó a desarrollar un detector de fotones especializado para mejorar el procesamiento de información cuántica. A través de ese trabajo, inventó un nuevo tipo de acoplador cuántico, que es un dispositivo que facilita las interacciones entre qubits. Los Qubits son los componentes básicos de una computadora cuántica. Este llamado acoplador de cuartón tenía tantas aplicaciones potenciales en operaciones cuánticas y lectura que rápidamente se convirtió en un foco del laboratorio. Este acoplador de cuartón es un tipo especial de circuito superconductor que tiene el potencial de generar un acoplamiento no lineal extremadamente fuerte, que es esencial para ejecutar la mayoría de los algoritmos cuánticos. A medida que los investigadores alimentan más corriente en el acoplador, crea una interacción no lineal aún más fuerte. En este sentido, la no linealidad significa que un sistema se comporta de una manera que es mayor que la suma de sus partes, exhibiendo propiedades más complejas. “La mayoría de las interacciones útiles en la computación cuántica provienen del acoplamiento no lineal de la luz y la materia. Si puede obtener una gama más versátil de diferentes tipos de acoplamiento y aumentar la fuerza de acoplamiento, entonces esencialmente puede aumentar la velocidad de procesamiento de la computadora cuántica, explica Ye. Para la lectura cuántica, los investigadores iluminan la luz de microondas en un qubit y luego, dependiendo de si ese qubit está en el estado 0 o 1, hay un cambio de frecuencia en su resonador de lectura asociado. Miden este cambio para determinar el estado de los qubits. El acoplamiento no lineal luz-materia entre el qubit y el resonador permite este proceso de medición. Los investigadores del MIT diseñaron una arquitectura con un acoplador de cuartón conectado a dos qubits superconductores en un chip. Convierten un qubit en un resonador y usan el otro qubit como un átomo artificial que almacena información cuántica. Esta información se transfiere en forma de partículas de luz de microondas llamadas fotones. “La interacción entre estos átomos artificiales superconductores y la luz de microondas que enruta la señal es básicamente cómo se construye una computadora cuántica superconductora completa,” Ye explica. Habilitar una lectura más rápida El acoplador de cuartón crea un acoplamiento no lineal de luz-materia entre el qubit y el resonador que es aproximadamente un orden de magnitud más fuerte de lo que los investigadores habían logrado antes. Esto podría permitir un sistema cuántico con lectura rápida. “Este trabajo no es el final de la historia. Esta es la demostración de física fundamental, pero ahora hay trabajo en curso en el grupo para realizar una lectura realmente rápida, dice OayBrien. Eso implicaría agregar componentes electrónicos adicionales, como filtros, para producir un circuito de lectura que podría incorporarse a un sistema cuántico más grande. Los investigadores también demostraron un acoplamiento materia-materia extremadamente fuerte, otro tipo de interacción qubit que es importante para las operaciones cuánticas. Esta es otra área que planean explorar con el trabajo futuro. Las operaciones rápidas y la lectura son especialmente importantes para las computadoras cuánticas porque los qubits tienen una vida útil finita, un concepto conocido como tiempo de coherencia. Un acoplamiento no lineal más fuerte permite que un procesador cuántico funcione más rápido y con un error menor, por lo que los qubits pueden realizar más operaciones en la misma cantidad de tiempo. Esto significa que los qubits pueden ejecutar más rondas de corrección

Los ingenieros del MIT avanzan hacia una computadora cuántica tolerante a fallas Leer más »

Scroll al inicio