El Portal de las Tecnologías para la Innovación

Categoría: Papers de Investigación Científica

Se prevé que el número de centros de datos públicos crezca un 50% en los próximos cinco años hasta alcanzar los 8.400 en 2030.

Los centros de datos proporcionan la potencia de la computación en la nube que hace que la inteligencia artificial funcione.   La conectividad de redes, ya sea dentro y entre centros de datos, o desde las aplicaciones hasta el usuario final, será fundamental para aprovechar el potencial de la IA.  Obtenga más información en nuestras páginas de redes de centros de datos NOKIA News. Traducido al español

Leer más »

Cómo pensamos en la protección de datos

Un nuevo estudio muestra que las opiniones del público sobre la privacidad de los datos varían según cómo se utilizan los datos, quién se beneficia y otras condiciones. ¿Cómo deben protegerse los datos personales? ¿Cuáles son sus mejores usos? En nuestro mundo interconectado, las preguntas sobre la privacidad de los datos son omnipresentes y preocupan a empresas, legisladores y al público en general. Un nuevo estudio realizado por investigadores del MIT profundiza en el tema al sugerir que las opiniones de las personas sobre la privacidad no están firmemente fijadas y pueden cambiar significativamente, dependiendo de diferentes circunstancias y diferentes usos de los datos. “La privacidad no tiene un valor absoluto”, afirma Fabio Duarte, investigador principal del Senseable City Lab del MIT y coautor de un nuevo artículo que describe los resultados. “Dependiendo de la aplicación, las personas podrían percibir el uso de sus datos como más o menos invasivo”. El estudio se basa en un experimento que los investigadores llevaron a cabo en varios países utilizando un juego recientemente desarrollado que genera valoraciones públicas de la privacidad de los datos en relación con diferentes temas y dominios de la vida. “Demostramos que los valores atribuidos a los datos son combinatorios, situacionales, transaccionales y contextuales”, escriben los investigadores. El artículo de acceso abierto, « Data Slots: tradeoffs between privacy matters and benefits of data-driven solutions », se publica hoy en Nature: Humanities and Social Sciences Communications . Los autores son Martina Mazzarello, investigadora posdoctoral del Senseable City Lab; Duarte; Simone Mora, investigadora del Senseable City Lab; Cate Heine, doctora ’24 del University College London; y Carlo Ratti, director del Senseable City Lab. El estudio se basa en un juego de cartas con fichas de póker, llamado Data Slots , creado por los investigadores para estudiar el tema . En él, los jugadores sostienen cartas con 12 tipos de datos (como perfil personal, datos de salud, ubicación del vehículo, etc.) relacionados con tres tipos de dominios donde se recopilan datos: vida familiar, trabajo y espacios públicos. Tras intercambiar cartas, los jugadores generan ideas para el uso de los datos y evalúan e invierten en algunos de esos conceptos. El juego se ha jugado presencialmente en 18 países, y personas de otros 74 países lo han jugado en línea; el estudio incluyó más de 2000 rondas individuales. El objetivo del juego es examinar las valoraciones que el público genera sobre la privacidad de datos. Algunas investigaciones sobre el tema incluyen encuestas con opciones predefinidas que los encuestados pueden elegir. Sin embargo, en Data Slots, los propios jugadores generan valoraciones para una amplia gama de escenarios de uso de datos, lo que permite a los investigadores estimar la importancia relativa que las personas otorgan a la privacidad en diferentes situaciones.  La idea es “permitir que las personas propongan sus propias ideas y evalúen los beneficios y las preocupaciones sobre la privacidad de las ideas de sus pares, de manera participativa”, explica Ratti. El juego sugiere firmemente que las ideas de las personas sobre la privacidad de datos son flexibles, aunque los resultados indican ciertas tendencias. La carta de privacidad de datos cuyo uso más valoraron los jugadores fue la movilidad personal; dada la oportunidad en el juego de conservarla o intercambiarla, los jugadores la mantuvieron en sus manos el 43 % del tiempo, un indicador de su valor. Le siguieron, en orden, los datos personales de salud y el uso de servicios públicos. (Con disculpas a los dueños de mascotas, el tipo de carta de privacidad de datos que los jugadores conservaron menos, alrededor del 10 % del tiempo, fue la relacionada con la salud animal). Sin embargo, el juego sugiere claramente que el valor de la privacidad depende en gran medida de casos de uso específicos. El juego muestra que a las personas les importan considerablemente los datos de salud, pero también valoran el uso de datos ambientales en el lugar de trabajo, por ejemplo. Y los jugadores de Data Slots también parecen menos preocupados por la privacidad de los datos cuando su uso se combina con beneficios claros. En conjunto, esto sugiere un acuerdo: el uso de datos de salud puede ayudar a las personas a comprender los efectos del entorno laboral en el bienestar. “Incluso en términos de datos de salud en los espacios de trabajo, si se utilizan de forma agregada para mejorar el espacio de trabajo, para algunas personas vale la pena combinar datos de salud personales con datos ambientales”, dice Mora. Mazzarello añade: «Ahora quizás la empresa pueda realizar algunas intervenciones para mejorar la salud general. Puede ser invasivo, pero podría obtener algunos beneficios». En general, los investigadores sugieren que adoptar un enfoque más flexible y centrado en el usuario para comprender la opinión de la gente sobre la privacidad de datos puede contribuir a una mejor formulación de políticas de datos. Las ciudades —el foco principal del Laboratorio de Ciudades Sensibles— a menudo se enfrentan a este tipo de situaciones. Por ejemplo, los ayuntamientos pueden recopilar una gran cantidad de datos agregados de tráfico, pero la opinión pública puede ayudar a determinar el grado de anonimización de dichos datos. Comprender la opinión pública, junto con los beneficios del uso de datos, puede generar políticas viables que los funcionarios locales puedan implementar. “En definitiva, si las ciudades divulgan lo que planean hacer con los datos e involucran a los residentes interesados ​​para que aporten sus propias ideas sobre lo que podrían hacer, nos beneficiaría”, afirma Duarte. “Y en esos casos, la preocupación por la privacidad de las personas empieza a disminuir considerablemente”. MIT News. P. D. Traducido al español

Leer más »

When autonomous mobility learns to wonder

Autonomous mobility already exists… to some extent. Building an autonomous vehicle that can safely navigate an empty highway is one thing. The real challenge lies in adapting to the dynamic and messy reality of urban environments. Unlike the grid-like streets of many American cities, European roads are often narrow, winding and irregular. Urban environments have countless intersections without clear markings, pedestrian-only zones, roundabouts and areas where bicycles and scooters share the road with cars. Designing an autonomous mobility system that can safely operate in these conditions requires more than just sophisticated sensors and cameras. It’s mostly about tackling a tremendous challenge: predicting the dynamics of the world, in other words, understanding how humans navigate within given urban environments. Pedestrians, for example, often make spontaneous decisions such as darting across a street, suddenly changing direction, or weaving through crowds. A kid might run after a dog. Cyclists and scooters further complicate the equation, with their agile and often unpredictable maneuvers. “Autonomous mobility, whether in the form of self-driving cars or delivery robots, must evolve beyond merely reacting to the present moment. To navigate our complex, dynamic world, these AI-driven systems need the ability to imagine, anticipate, and simulate possible futures—just as humans do when we wonder what might happen next. In essence, AI must learn to wonder”, says Alexandre Alahi, head of EPFL’s Visual Intelligence for Transportation Laboratory (VITA). Pushing the boundaries of prediction: GEM At VITA laboratory, the goal of making AI “wonder” is becoming a reality. This year, the team has had seven papers accepted to the prestigious Conference on Computer Vision and Pattern Recognition (CVPR’25). Each contribution introduces a novel method to help AI systems imagine, predict, and simulate possible futures—from forecasting human motion to generating entire video sequences. In the spirit of open science, all models and datasets are being released as open source, empowering the global research community and industry to build upon and extend this work. Together, these contributions represent a unified effort to give autonomous mobility the ability not just to react, but to truly anticipate the world around them. One of the most innovative models is designed to predict video sequences from a single image captured by a camera mounted on a vehicle (or any egocentric view). Called GEM (Generalizable Ego-Vision Multimodal World Model), it helps autonomous systems anticipate future events by learning how scenes evolve over time. As part ot the Swiss AI Initiative, and in collaboration with four other institutions (University of Bern, SDSC, University of Zurich and ETH Zurich), they trained their model using 4000 hours of videos spanning autonomous driving, egocentric human activities (meaning, activities from the first person point of view) and drone footage. GEM learns how people and objects move in different environments. It uses this knowledge to generate entirely new video sequences that imagine what might happen next in a given scene, whether it’s a pedestrian crossing the street or a car turning at an intersection. These imagined scenarios can even be controlled by adding cars and pedestrians, making GEM a powerful tool for safely training and testing autonomous systems in a wide range of realistic situations. To make these predictions, the model looks simultaneously at several types of information, also called modalities. It analyzes RGB images—which are standard color video frames—to understand the visual context of a scene, and depth maps to grasp its 3D structure. These two data types together allow the model to interpret both what is happening and where things are in space. GEM also takes into account the movement of the camera (ego-motion), human poses, and object dynamics over time. By learning how all of these signals evolve together across thousands of real-world situations, It can generate coherent, realistic sequences that reflect how a scene might change in the next few seconds. “The tool can function as a realistic simulator for vehicles, drones and other robots, enabling the safe testing of control policies in virtual environments before deploying them in real-world conditions. It can also assist in planning by helping these robots anticipate changes in their surroundings, making decision-making more robust and context-aware,” says Mariam Hassan, Ph.D student at VITA lab. The road to predictions Predicting human behavior is a complex and multi-faceted challenge, and GEM represents just one piece of the VITA Lab’s broader effort to tackle it. While GEM focuses on generating the videos of the future and exposing autonomous systems to diverse virtual scenarios, other research projects from Professor Alahi’s team are tackling lower levels of abstractions to enhance prediction with robustness, generalizability, and social awareness. For example, one of them aims to certify where people will move, even when the data is incomplete or slightly off. Meanwhile, MotionMap tackles the inherent unpredictability of human motion through a probabilistic approach. This probabilistic approach helps systems prepare for unexpected movements in dynamic environments. These efforts form a comprehensive framework that maps out the complex interactions at play in crowded urban settings. There are still challenges: long-term consistency, high-fidelity spatial accuracy, and computational efficiency are still evolving. At the heart of it all lies the toughest question: how well shall we predict people who don’t always follow patterns? Human decisions are shaped by intent, emotion, and context—factors that aren’t always visible to machines. About the Swiss AI InitiativeLaunched in December 2023 by EPFL and ETH Zurich, the Swiss AI Initiative is supported by more than 10 academic institutions across Switzerland. With over 800 researchers involved and access to 10 million GPU hours, it stands as the world’s largest open science and open source effort dedicated to AI foundation models. The model developed by VITA lab, in collaboration with four other institutions (University of Bern, SDSC, University of Zurich and ETH Zurich) is among the first major models to emerge from this ambitious collaboration. It was trained on the Alps supercomputer at the Swiss National Supercomputing Centre (CSCS), which provided the massive computational power needed to process vast amounts of multimodal data. Autonomous mobility in SwitzerlandIn Switzerland, fully autonomous mobility

Leer más »

Cuando la movilidad autónoma aprende a maravillarse

La movilidad autónoma ya existe… hasta cierto punto. Construir un vehículo autónomo que pueda circular con seguridad por una autopista vacía es una cosa. El verdadero reto reside en adaptarse a la dinámica y caótica realidad de los entornos urbanos. A diferencia de las calles cuadriculadas de muchas ciudades estadounidenses, las carreteras europeas suelen ser estrechas, sinuosas e irregulares. Los entornos urbanos presentan innumerables intersecciones sin señalización clara, zonas peatonales exclusivas, rotondas y zonas donde bicicletas y patinetes comparten la vía con coches. Diseñar un sistema de movilidad autónoma que pueda operar con seguridad en estas condiciones requiere algo más que sensores y cámaras sofisticados. Se trata principalmente de afrontar un enorme reto: predecir la dinámica del mundo; en otras palabras, comprender cómo se desenvuelven los humanos en entornos urbanos determinados. Los peatones, por ejemplo, suelen tomar decisiones espontáneas, como cruzar la calle a toda velocidad, cambiar de dirección repentinamente o sortear multitudes. Un niño podría correr tras un perro. Los ciclistas y los patinetes complican aún más la ecuación, con sus maniobras ágiles y a menudo impredecibles. La movilidad autónoma, ya sea en forma de coches autónomos o robots de reparto, debe evolucionar más allá de la simple reacción al momento presente. Para desenvolverse en nuestro mundo complejo y dinámico, estos sistemas impulsados ​​por IA necesitan la capacidad de imaginar, anticipar y simular futuros posibles, tal como lo hacemos los humanos cuando nos preguntamos qué podría suceder a continuación. En esencia, la IA debe aprender a preguntarse, afirma Alexandre Alahi, director del Laboratorio de Inteligencia Visual para el Transporte (VITA) de la EPFL. Ampliando los límites de la predicción: GEM En el laboratorio VITA, el objetivo de hacer que la IA «maraville» se está haciendo realidad. Este año, el equipo ha aceptado siete artículos en la prestigiosa Conferencia sobre Visión Artificial y Reconocimiento de Patrones (CVPR’25). Cada contribución introduce un método novedoso para ayudar a los sistemas de IA a imaginar, predecir y simular futuros posibles, desde la predicción del movimiento humano hasta la generación de secuencias de vídeo completas. En el espíritu de la ciencia abierta, todos los modelos y conjuntos de datos se publican como código abierto, lo que permite a la comunidad investigadora y a la industria global desarrollar y ampliar este trabajo. En conjunto, estas contribuciones representan un esfuerzo conjunto para dotar a la movilidad autónoma de la capacidad no solo de reaccionar, sino de anticiparse al mundo que la rodea. Uno de los modelos más innovadores está diseñado para predecir secuencias de vídeo a partir de una sola imagen captada por una cámara instalada en un vehículo (o cualquier vista egocéntrica). Denominado GEM (Modelo Mundial Multimodal Generalizable de Visión Egocéntrica), ayuda a los sistemas autónomos a anticipar eventos futuros al aprender cómo evolucionan las escenas con el tiempo. Como parte de la Iniciativa Suiza de IA, y en colaboración con otras cuatro instituciones (Universidad de Berna, SDSC, Universidad de Zúrich y ETH Zúrich), entrenaron su modelo utilizando 4000 horas de vídeos que abarcan conducción autónoma, actividades humanas egocéntricas (es decir, actividades desde una perspectiva en primera persona) y grabaciones de drones. GEM aprende cómo se mueven las personas y los objetos en diferentes entornos. Utiliza este conocimiento para generar secuencias de vídeo completamente nuevas que imaginan lo que podría suceder a continuación en una escena determinada, ya sea un peatón cruzando la calle o un coche girando en una intersección. Estos escenarios imaginarios pueden incluso controlarse añadiendo coches y peatones, lo que convierte a GEM en una potente herramienta para entrenar y probar sistemas autónomos de forma segura en una amplia gama de situaciones realistas. Para realizar estas predicciones, el modelo analiza simultáneamente varios tipos de información, también llamados modalidades. Analiza imágenes RGB (fotogramas de vídeo a color estándar) para comprender el contexto visual de una escena, y mapas de profundidad para comprender su estructura 3D. Estos dos tipos de datos, en conjunto, permiten al modelo interpretar tanto lo que sucede como la ubicación de los objetos en el espacio. GEM también tiene en cuenta el movimiento de la cámara (ego-motion), las poses humanas y la dinámica de los objetos a lo largo del tiempo. Al comprender cómo evolucionan todas estas señales en conjunto en miles de situaciones del mundo real, puede generar secuencias coherentes y realistas que reflejan cómo podría cambiar una escena en los próximos segundos. La herramienta puede funcionar como un simulador realista para vehículos, drones y otros robots, lo que permite probar de forma segura las políticas de control en entornos virtuales antes de implementarlas en condiciones reales. También puede ayudar en la planificación, ayudando a estos robots a anticipar los cambios en su entorno, lo que hace que la toma de decisiones sea más robusta y contextualizada, afirma Mariam Hassan, estudiante de doctorado en el laboratorio VITA. El camino hacia las predicciones Predecir el comportamiento humano es un desafío complejo y multifacético, y GEM representa solo una parte del esfuerzo más amplio del Laboratorio VITA para abordarlo. Mientras que GEM se centra en generar los videos del futuro y exponer sistemas autónomos a diversos escenarios virtuales, otros proyectos de investigación del equipo del profesor Alahi abordan niveles de abstracción más bajos para mejorar la predicción con robustez, generalización y conciencia social. Por ejemplo, uno de ellos busca certificar el movimiento de las personas, incluso cuando los datos están incompletos o son ligeramente erróneos. Por otro lado, MotionMap aborda la imprevisibilidad inherente del movimiento humano mediante un enfoque probabilístico. Este enfoque probabilístico ayuda a los sistemas a prepararse para movimientos inesperados en entornos dinámicos. Estos esfuerzos conforman un marco integral que mapea las complejas interacciones que ocurren en entornos urbanos abarrotados. Aún existen desafíos: la consistencia a largo plazo, la precisión espacial de alta fidelidad y la eficiencia computacional siguen evolucionando. En el centro de todo esto se encuentra la pregunta más difícil: ¿qué tan bien podemos predecir a las personas que no siempre siguen patrones? Las decisiones humanas están condicionadas por la intención, la emoción y el contexto,

Leer más »

Un estudio muestra que los modelos de lenguaje visual no pueden manejar consultas con palabras de negación

Palabras como “no” y “no” pueden provocar que esta popular clase de modelos de IA falle inesperadamente en entornos de alto riesgo, como el diagnóstico médico. Imagine a un radiólogo examinando la radiografía de tórax de un paciente nuevo. Observa que el paciente presenta inflamación en el tejido, pero no un agrandamiento del corazón. Para agilizar el diagnóstico, podría usar un modelo de aprendizaje automático de visión y lenguaje para buscar informes de pacientes similares. Pero si el modelo identifica erróneamente informes con ambas condiciones, el diagnóstico más probable podría ser bastante diferente: si un paciente tiene hinchazón de tejido y un corazón agrandado, es muy probable que la condición esté relacionada con el corazón, pero sin un corazón agrandado podría haber varias causas subyacentes. En un nuevo estudio, investigadores del MIT han descubierto que los modelos de lenguaje visual tienen una probabilidad extremadamente alta de cometer ese error en situaciones del mundo real porque no entienden la negación: palabras como “no” y “doesn’t” que especifican lo que es falso o está ausente.  “Esas palabras de negación pueden tener un impacto muy significativo y, si usamos estos modelos a ciegas, podemos encontrarnos con consecuencias catastróficas”, dice Kumail Alhamoud, estudiante de posgrado del MIT y autor principal de este estudio . Los investigadores probaron la capacidad de los modelos de visión y lenguaje para identificar la negación en los pies de foto. Los modelos a menudo funcionaron tan bien como una suposición aleatoria. Basándose en estos hallazgos, el equipo creó un conjunto de datos de imágenes con sus pies de foto correspondientes que incluyen palabras de negación que describen objetos faltantes. Demuestran que reentrenar un modelo de visión-lenguaje con este conjunto de datos mejora el rendimiento cuando se le pide que recupere imágenes que no contienen ciertos objetos. También mejora la precisión al responder preguntas de opción múltiple con subtítulos negados. Sin embargo, los investigadores advierten que se necesita más investigación para abordar las causas fundamentales de este problema. Esperan que su investigación alerte a los usuarios potenciales sobre una deficiencia previamente inadvertida que podría tener graves implicaciones en entornos de alto riesgo donde se utilizan actualmente estos modelos, desde determinar qué pacientes reciben ciertos tratamientos hasta identificar defectos de productos en plantas de fabricación. “Este es un artículo técnico, pero hay cuestiones más importantes que considerar. Si algo tan fundamental como la negación falla, no deberíamos utilizar modelos de visión/lenguaje a gran escala en muchas de las formas en que los utilizamos actualmente, sin una evaluación exhaustiva”, afirma la autora principal Marzyeh Ghassemi, profesora asociada del Departamento de Ingeniería Eléctrica y Ciencias de la Computación (EECS) y miembro del Instituto de Ciencias de la Ingeniería Médica y del Laboratorio de Sistemas de Información y Decisión. A Ghassemi y Alhamoud se unen en este artículo Shaden Alshammari, estudiante de posgrado del MIT; Yonglong Tian, ​​de OpenAI; Guohao Li, exinvestigador posdoctoral de la Universidad de Oxford; Philip HS Torr, profesor de Oxford; y Yoon Kim, profesor adjunto de Ingeniería Eléctrica y Ciencias de la Computación (EECS) y miembro del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT. La investigación se presentará en la Conferencia sobre Visión por Computador y Reconocimiento de Patrones. Descuidar la negación Los modelos de visión-lenguaje (VLM) se entrenan utilizando grandes colecciones de imágenes y sus correspondientes subtítulos, que aprenden a codificar como conjuntos de números, denominados representaciones vectoriales. Los modelos utilizan estos vectores para distinguir entre diferentes imágenes. Un VLM utiliza dos codificadores separados, uno para texto y otro para imágenes, y los codificadores aprenden a generar vectores similares para una imagen y su título de texto correspondiente. Los pies de foto expresan lo que hay en las imágenes: son una etiqueta positiva. Y ese es, de hecho, el problema. Nadie ve una imagen de un perro saltando una valla y la subtitula diciendo ‘un perro saltando una valla, sin helicópteros’», dice Ghassemi. Debido a que los conjuntos de datos de títulos de imágenes no contienen ejemplos de negación, los VLM nunca aprenden a identificarla. Para profundizar en este problema, los investigadores diseñaron dos tareas de referencia que prueban la capacidad de los VLM para comprender la negación. En el primer caso, utilizaron un modelo de lenguaje extenso (LLM) para reescribir imágenes en un conjunto de datos existente. Para ello, pidieron al LLM que pensara en objetos relacionados que no estaban en la imagen y los incluyera en el texto. Luego, probaron los modelos, pidiéndoles palabras de negación para que recuperaran imágenes que contenían ciertos objetos, pero no otros. Para la segunda tarea, diseñaron preguntas de opción múltiple que solicitan al lector de texto visual (VLM) seleccionar la descripción más adecuada de una lista de opciones estrechamente relacionadas. Estas descripciones difieren únicamente en que añaden una referencia a un objeto que no aparece en la imagen o niegan un objeto que sí aparece. Los modelos fallaron con frecuencia en ambas tareas, y el rendimiento de recuperación de imágenes disminuyó casi un 25 % con subtítulos negados. Al responder preguntas de opción múltiple, los mejores modelos solo alcanzaron una precisión del 39 %, y varios modelos obtuvieron resultados iguales o incluso inferiores a los del azar. Una razón para esta falla es un atajo que los investigadores llaman sesgo de afirmación: los VLM ignoran las palabras de negación y se centran en los objetos de las imágenes. “Esto no solo ocurre con palabras como ‘no’ y ‘no’. Independientemente de cómo se exprese la negación o la exclusión, los modelos simplemente la ignorarán”, afirma Alhamoud. Esto fue consistente en todos los VLM que probaron. “Un problema solucionable” Dado que los VLM normalmente no se entrenan con títulos de imágenes con negación, los investigadores desarrollaron conjuntos de datos con palabras de negación como un primer paso hacia la solución del problema. Utilizando un conjunto de datos con 10 millones de pares de títulos de imágenes y textos, pidieron a un LLM que propusiera títulos relacionados que especificaran qué se excluye de las imágenes, lo que produjo nuevos títulos

Leer más »

Device Engineering: Where Ambitions and Real Silicon Collide

Behind the Builders: As the RibbonFET transistor arrives with Intel 18A, Chung-Hsun Lin works at the crossroads of silicon ambitions and physical reality. When Global Foundries decided to shift away from the pursuit of leading-edge silicon technology nodes in 2018 (after IBM did in 2015), Chung-Hsun Lin wasn’t ready to give up. “At that time, I found in my heart, I still want to get my hands dirty working on the leading edge,” Lin says. He had helped build a variety of silicon technologies at Global Foundries and IBM, including the 14-nanometer SOI FinFET process that underpinned IBM’s Summit, which debuted in 2018 as the world’s top supercomputer. When he joined Intel that same year, he earned a fascinating assignment: leading the pathfinding device group to build Intel’s next-generation transistor, a gate-all-around design later dubbed RibbonFET. More: All News from Intel Foundry Direct Connect 2025 In 2011, Intel pioneered FinFET, the first major redesign of the CMOS transistor since its 1960s introduction. By the time Lin joined Intel, it was clear another new design would eventually be needed to keep making transistors smaller, faster and more efficient. If Lin wanted leading edge, he got it. Developing a new transistor would be arguably the most leading-edge job on the planet. The Intersection of Theory, Silicon Reality and Customer Needs Almost seven years later, Lin and his colleagues’ toil to turn RibbonFET from concept to high-volume manufacturing has been realized. RibbonFET makes its debut as part of the Intel 18A process node. Much anticipated for the past four years, Intel 18A is predicted to push Intel back to competitive leading-edge semiconductor manufacturing. It’s the manifestation of Intel’s redoubling on manufacturing prowess and its first major offering as a provider of foundry services for both internal and external chip design teams. And Lin has played a unique role in its development from his first day at Intel. Today, Lin is a senior principal engineer and leader of the Device Engineering Group within Intel Foundry Technology and Manufacturing – the division working on several future silicon process nodes, including Intel 18A, Intel 14A and beyond. Device engineering, it turns out, is where bet-the-company ambitions collide with the reality of what teams can reliably build on silicon wafers. Lin and his team lead a collaborative effort across Intel Foundry to set the performance targets for each future process node – for the transistors and interconnects – and then join forces to achieve those targets in silicon. They also encapsulate all the resulting specifications for each node in the process development kit, or PDK. “The PDK is how we talk to our customers,” explains Lin. The PDK is no less important than the silicon technologies it represents – he calls it an “implied contract” with customers for how the node will behave and perform. Owning all this puts device engineering at the center of process node development, reaching deep into both theory and physical silicon processes. “We are kind of a bridge, orchestrating all these things to build the PDK with the process and Design Technology Platform teams,” Lin says. It needs to digitally mirror the physical technologies as accurately as possible. To complicate things a bit, customers and partners need the PDK early, long before the silicon process is complete and ready for high-volume production. At the beginning, the PDK is the set of years-ahead projections the collective teams think they can achieve by the time process development is complete. Listening to Customers and Earning their Trust “We have to be humble,” Lin says. Foundry is all about customer service, “and we are learning to listen to customers and deliver what they need.” “Process development in leading-edge technology is exciting because there’s constant learning and improvement,” he notes. Customers expect some unpredictability on the silicon frontier, “but they want full transparency.” Embracing collaboration with partners fosters shared insights and, over time, builds trust between internal and external teams. Lin and team develop and maintain several PDKs in parallel – working to apply lessons across programs quickly and continuously improve the development process itself – but Intel 18A is special. “We’re trying to regain process leadership,” Lin says. Intel 18A contains a pair of new technologies that are radically different from their predecessors: PowerVia, which moves each chip’s power delivery network to the “back” (the bottom, in layman’s terms) side of the wafer, and RibbonFET, the totally new design for the transistors at the heart of every chip. Two years ago, Intel proved out PowerVia with a special in-between process node that used well-worn FinFET transistors as a control mechanism to iron out a new two-part manufacturing process, which goes from making chips like pizzas, from the bottom up, to making them like precision flipped omelets. RibbonFET uses a gate-all-around design and “is probably the most difficult transistor ever built,” Lin says. Continuing the geometric revolutions, RibbonFET flips the fins of the FinFET on their sides and stacks them vertically, where they can lie as “ribbons” much closer together (from around 30 nanometers apart to 10). It’s worth the trouble: With the gate surrounding the ribbons, the transistors work better. Altogether, each transistor switches faster (delivering more performance), runs more efficiently (using less power) and takes up less area on the wafer. It represents Moore’s Law fulfilled. What makes the RibbonFET hard to make is its three-dimensional intricacy. To peek into just one slice of it: Materials that form the suspended horizontal ribbons are layered across the entire bare silicon wafer first – and then etched away except where ribbons are needed. New layers are added, trenches are etched, and new materials are deposited in precise locations, sometimes atom by atom. Triple Trade-Offs, Fulfilling Projections and Unshakeable Optimism The whole process must be unfailingly repeatable and reliable. “Yield, performance and reliability always hurt each other because whenever you improve one, the other two might suffer,” Lin explains. “They always triple the trade-off.” But it can be defeated. Lin is a fan of the mindset cultivated by Youssef El-Mansy, a former Intel vice president who led

Leer más »

Ingeniería de dispositivos: donde las ambiciones y el silicio real chocan

Detrás de los constructores: mientras el transistor RibbonFET llega con Intel 18A, Chung-Hsun Lin trabaja en la encrucijada de las ambiciones del silicio y la realidad física. Cuando Global Foundries decidió  alejarse de  la búsqueda de nodos de tecnología de silicio de vanguardia en 2018 (después de que IBM lo hiciera en 2015), Chung-Hsun Lin no estaba listo para darse por vencido. “En ese momento, sentí en mi corazón que todavía quería ponerme manos a la obra trabajando en la vanguardia”, dice Lin. Había contribuido al desarrollo de diversas tecnologías de silicio en Global Foundries e IBM, incluyendo el proceso SOI FinFET de 14 nanómetros que sustentaba  el Summit de IBM , que debutó en 2018 como la supercomputadora líder del mundo. Cuando se unió a Intel ese mismo año, recibió una asignación fascinante: liderar el grupo de dispositivos de búsqueda de rutas para construir el transistor de próxima generación de Intel, un diseño de puerta envolvente posteriormente denominado RibbonFET. En 2011, Intel fue pionero en FinFET, el primer rediseño importante del transistor CMOS desde su introducción en la década de 1960. Cuando Lin se unió a Intel, estaba claro que eventualmente se necesitaría otro diseño nuevo para seguir fabricando transistores más pequeños, más rápidos y más eficientes. Si Lin quería tecnología de vanguardia, la tenía. Desarrollar un nuevo transistor sería, sin duda, el trabajo más vanguardista del planeta. La intersección de la teoría, la realidad del silicio y las necesidades del cliente Casi siete años después, el esfuerzo de Lin y sus colegas para convertir el RibbonFET del concepto a la fabricación en grandes volúmenes se ha hecho realidad. RibbonFET debuta como parte del  nodo de proceso Intel 18A . Muy esperado durante los últimos cuatro años, se prevé que Intel 18A impulse de nuevo la competitividad en la fabricación de semiconductores de vanguardia. Es la manifestación del redoblamiento de la capacidad de fabricación de Intel y su primera gran oferta como proveedor de servicios de fundición para equipos de diseño de chips, tanto internos como externos. Y Lin ha desempeñado un papel único en su desarrollo desde su primer día en Intel. En la actualidad, Lin es ingeniero principal sénior y líder del Grupo de Ingeniería de Dispositivos dentro de Intel Foundry Technology and Manufacturing, la división que trabaja en varios nodos de procesos de silicio futuros, incluidos Intel 18A, Intel 14A y más allá. Resulta que la ingeniería de dispositivos es donde las ambiciones de apostar la empresa chocan con la realidad de lo que los equipos pueden construir de forma fiable sobre obleas de silicio. Lin y su equipo lideran una iniciativa de colaboración en Intel Foundry para establecer los objetivos de rendimiento de cada futuro nodo de proceso (para los transistores y las interconexiones) y, posteriormente, unir fuerzas para alcanzar dichos objetivos en silicio. También encapsulan todas las especificaciones resultantes para cada nodo en el kit de desarrollo de procesos (PDK). «El PDK es nuestra forma de comunicarnos con nuestros clientes», explica Lin. El PDK es tan importante como las tecnologías de silicio que representa; lo denomina un «contrato implícito» con los clientes sobre el comportamiento y el rendimiento del nodo. Poseer todo esto sitúa la ingeniería de dispositivos en el centro del desarrollo de nodos de proceso, profundizando tanto en la teoría como en los procesos físicos de silicio. «Somos una especie de puente, orquestando todo esto para construir el PDK con los equipos de proceso y de la Plataforma Tecnológica de Diseño», afirma Lin. Debe reflejar digitalmente las tecnologías físicas con la mayor precisión posible. Para complicar aún más las cosas, los clientes y socios necesitan el PDK con antelación, mucho antes de que el proceso de silicio esté completo y listo para la producción a gran escala. Inicialmente, el PDK es el conjunto de proyecciones a años vista que los equipos creen poder lograr una vez finalizado el desarrollo del proceso. Escuchar a los clientes y ganarse su confianza “Tenemos que ser humildes”, dice Lin. En Foundry, la prioridad es la atención al cliente, “y estamos aprendiendo a escuchar a los clientes y a ofrecerles lo que necesitan”. “El desarrollo de procesos en tecnología de vanguardia es emocionante porque implica aprendizaje y mejora constantes”, señala. Los clientes esperan cierta imprevisibilidad en la frontera del silicio, “pero desean transparencia total”. Promover la colaboración con socios fomenta el intercambio de conocimientos y, con el tiempo, genera confianza entre los equipos internos y externos. Lin y su equipo desarrollan y mantienen varios PDK en paralelo, trabajando para aplicar lecciones aprendidas en todos los programas con rapidez y mejorando continuamente el proceso de desarrollo, pero Intel 18A es especial. «Estamos intentando recuperar el liderazgo en el proceso», afirma Lin. Intel 18A contiene un par de nuevas tecnologías que son radicalmente diferentes de sus predecesores: PowerVia, que mueve la red de suministro de energía de cada chip al lado “posterior” (la parte inferior, en términos sencillos) de la oblea, y RibbonFET, el diseño totalmente nuevo para los transistores en el corazón de cada chip. Hace dos años, Intel  probó PowerVia  con un nodo de proceso intermedio especial que usaba transistores FinFET muy usados ​​como mecanismo de control para desarrollar un nuevo proceso de fabricación de dos partes, que va desde hacer patatas fritas como pizzas, desde abajo hacia arriba, hasta hacerlas como tortillas volteadas con precisión. RibbonFET utiliza un diseño de puerta envolvente y “es probablemente el transistor más difícil jamás construido”, afirma Lin. Continuando con las revoluciones geométricas, el RibbonFET invierte las aletas del FinFET y las apila verticalmente, donde pueden quedar como «cintas» mucho más juntas (de unos 30 nanómetros a 10). Merece la pena: con la puerta que rodea las cintas, los transistores funcionan mejor. En conjunto, cada transistor conmuta más rápido (ofreciendo mayor rendimiento), funciona con mayor eficiencia (consumiendo menos energía) y ocupa menos espacio en la oblea. Esto representa  el cumplimiento de la Ley de Moore  . Lo que dificulta la fabricación del RibbonFET es su complejidad tridimensional. Para analizarlo solo un poco: los materiales que forman las cintas horizontales suspendidas

Leer más »

Robotic hand moves objects with human-like grasps

A robotic hand developed at EPFL can pick up 24 different objects with human-like movements that emerge spontaneously, thanks to compliant materials and structures rather than programming. When you reach out your hand to grasp an object like a bottle, you generally don’t need to know the bottle’s exact position in space to pick it up successfully. But as EPFL researcher Kai Junge explains, if you want to make a robot that can pick up a bottle, you must know everything about the surrounding environment very precisely. “As humans, we don’t really need too much external information to grasp an object, and we believe that’s because of the compliant – or soft – interactions that happen at the interface between an object and a human hand,” says Junge, a PhD student in the School of Engineering’s Computational Robot Design & Fabrication (CREATE) Lab, led by Josie Hughes. “This compliance is what we are interested in exploring for robots.” In robotics, compliant materials are those that deform, bend, and squish. In the case of the CREATE Lab’s robotic ADAPT hand (Adaptive Dexterous Anthropomorphic Programmable sTiffness), the compliant materials are relatively simple: strips of silicone wrapped around a mechanical wrist and fingers, plus spring-loaded joints, combined with a bendable robotic arm. But this strategically distributed compliance is what allows the device to pick up a wide variety of objects using “self-organized” grasps that emerge automatically, rather than being programmed. In a series of experiments, the ADAPT hand, which can be controlled remotely, was able to pick up 24 objects with a success rate of 93%, using self-organized grasps that mimicked a natural human grasp with a direct similarity of 68%. The research has been published in Nature Communications Engineering. ‘Bottom-up’ robotic intelligence While a traditional robotic hand would need a motor to actuate each joint, the ADAPT hand has only 12 motors, housed in the wrist, for its 20 joints. The rest of the mechanical control comes from springs, which can be made stiffer or looser to tune the hand’s compliance, and from the silicone ‘skin’, which can also be added or removed. As for software, the ADAPT hand is programmed to move through just four general waypoints, or positions, to lift an object. Any further adaptations required to complete the task occur without additional programming or feedback; in robotics, this is called ‘open loop’ control. For example, when the team programmed the robot to use a certain motion, it was able to adapt its grasp pose to various objects ranging from a single bolt to a banana. The researchers analyzed this extreme robustness — thanks to the robot’s spatially distributed compliance — with over 300 grasps and compared them against a rigid version of the hand. We are interested in exploiting the distributed mechanical intelligence of different body parts like skin, muscles, and joints, as opposed to the top-down intelligence of the brain.Kai Junge, CREATE Lab “Developing robots that can perform interactions or tasks that humans do automatically is a lot harder than most people expect,” Junge says. “That’s why we are interested in exploiting this distributed mechanical intelligence of different body parts like skin, muscles, and joints, as opposed to the top-down intelligence of the brain.” Balancing compliance and control Junge emphasizes that the goal of the ADAPT study was not necessarily to create a robotic hand that can grasp like a human, but to show for the first time how much a robot can achieve through compliance alone. Now that this has been demonstrated systematically, the EPFL team is building on the potential of compliance by re-integrating elements of closed-loop control into the ADAPT hand, including sensory feedback – via the addition of pressure sensors to the silicone skin – and artificial intelligence. This synergistic approach could lead to robots that combine compliance’s robustness to uncertainty, and the precision of closed-loop control. “A better understanding of the advantages of compliant robots could greatly improve the integration of robotic systems into highly unpredictable environments, or into environments designed for humans,” Junge summarizes. References Junge, K., Hughes, J. Spatially distributed biomimetic compliance enables robust anthropomorphic robotic manipulation. Commun Eng 4, 76 (2025). https://doi.org/10.1038/s44172-025-00407-4 EPFL News. C. L.

Leer más »

Investigadores de la ETH de Zúrich descubren una nueva vulnerabilidad de seguridad en los procesadores Intel

Científicos informáticos de la ETH de Zúrich descubren una nueva clase de vulnerabilidades en los procesadores Intel, lo que les permite romper las barreras entre los diferentes usuarios de un procesador mediante secuencias de instrucciones cuidadosamente diseñadas.  Se puede leer toda la memoria del procesador mediante ataques rápidos y repetidos. 13.05.2025 por Daniel Meierhans, autor independiente En resumen Cualquiera que especule sobre eventos probables con antelación y se prepare en consecuencia puede reaccionar con mayor rapidez a los nuevos desarrollos. Lo que prácticamente todas las personas hacen a diario, consciente o inconscientemente, también lo utilizan los procesadores informáticos modernos para acelerar la ejecución de programas. Cuentan con las llamadas tecnologías especulativas, que les permiten ejecutar instrucciones reservadas que, según la experiencia, probablemente se producirán a continuación. Anticipar los pasos individuales del proceso acelera el procesamiento general de la información. Sin embargo, lo que mejora el rendimiento de un ordenador en funcionamiento normal también puede abrir una puerta trasera a los hackers, como demuestra una investigación reciente realizada por informáticos del Grupo de Seguridad Informática (COMSEC) del Departamento de Tecnología de la Información e Ingeniería Eléctrica de la ETH de Zúrich. Los informáticos han descubierto una nueva clase de vulnerabilidades que pueden explotarse para abusar de los cálculos de predicción de la CPU (unidad central de procesamiento) y obtener acceso no autorizado a la información de otros usuarios del procesador. Procesadores de PC, portátiles y servidores afectados “La vulnerabilidad de seguridad afecta a todos los procesadores Intel”, enfatiza Kaveh Razavi, director de COMSEC. “Podemos usar la vulnerabilidad para leer todo el contenido de la memoria intermedia (caché) del procesador y la memoria de trabajo (RAM) de otro usuario de la misma CPU”. La CPU utiliza la RAM (memoria de acceso aleatorio) y la caché para almacenar temporalmente los pasos de cálculo y la información que probablemente se necesite a continuación. Esta vulnerabilidad socava gravemente la seguridad de los datos, especialmente en el entorno de la nube, donde muchos usuarios comparten los mismos recursos de hardware. Afecta a los procesadores del mayor fabricante de CPU del mundo, utilizados en PC y portátiles, así como en servidores de centros de datos.                                        Brecha de nanosegundos en la verificación de autoridad Las llamadas BPRC (Branch Predictor Race Conditions) aparecen durante un breve espacio de tiempo de unos pocos nanosegundos cuando el procesador cambia entre cálculos de predicción para dos usuarios con diferentes permisos, explica Sandro Rüegge, que ha estado examinando la vulnerabilidad en detalle durante los últimos meses. Es posible superar las barreras de protección integradas entre usuarios, conocidas como privilegios, porque los permisos para actividades individuales no se almacenan simultáneamente con los cálculos. Con entradas especiales, ahora es posible generar ambigüedad en la secuencia de eventos al cambiar de usuario, lo que resulta en una asignación incorrecta de privilegios. Un atacante podría aprovechar esto para leer un byte de información (una unidad compuesta por ocho datos binarios 0/1). Desbloqueo de todo el contenido de la memoria byte a byte La divulgación de un solo byte sería insignificante. Sin embargo, el ataque puede repetirse rápidamente, lo que permite leer el contenido de toda la memoria a lo largo del tiempo, explica Rüegge. «Podemos activar el error repetidamente y alcanzar una velocidad de lectura de más de 5000 bytes por segundo». Por lo tanto, en caso de un ataque, es solo cuestión de tiempo antes de que la información de toda la memoria de la CPU caiga en las manos equivocadas.   Parte de una serie de vulnerabilidades de seguridad La vulnerabilidad que los investigadores de la ETH de Zúrich han identificado no es la primera que se descubre en las tecnologías de CPU especulativas introducidas a mediados de los 90. En 2017, Spectre y Meltdown fueron las dos primeras vulnerabilidades de este tipo en ser noticia, y desde entonces han aparecido nuevas variantes con regularidad. Johannes Wikner, exestudiante de doctorado del grupo de Razavi, ya identificó una vulnerabilidad conocida como Retbleed en 2022. Wikner aprovechó los rastros de instrucciones ejecutadas especulativamente en la caché de la CPU para acceder a información de otros usuarios. Una señal sospechosa revela vulnerabilidad El punto de partida para el descubrimiento de la nueva clase de vulnerabilidad fue el trabajo posterior a las investigaciones de Retbleed. «Examiné las funciones de las medidas de protección que Intel había implementado para corregir la vulnerabilidad de Retbleed», afirma Johannes Wikner. Al hacerlo, descubrió una señal inusual en la memoria caché que aparecía independientemente de si las medidas de protección estaban activadas o desactivadas. Rüegge se encargó entonces de un análisis detallado de la causa de la señal y, basándose en este trabajo, pudo descubrir el nuevo vector de ataque. Problema arquitectónico fundamental La vulnerabilidad se descubrió en septiembre de 2024. Desde entonces, Intel ha implementado medidas de protección para proteger sus procesadores. Sin embargo, existen numerosos indicios de que el problema es más grave. «La serie de vulnerabilidades recién descubiertas en tecnologías especulativas es un indicio de fallos fundamentales en la arquitectura», señala Razavi. «Es necesario encontrar las vulnerabilidades una por una y luego cerrarlas». Para solucionar este tipo de deficiencias, se requiere una actualización especial del microcódigo del procesador. Esto puede realizarse mediante una actualización de la BIOS o del sistema operativo y, por lo tanto, debería instalarse en nuestros PC con una de las últimas actualizaciones acumulativas de Windows. Referencia Rüegge S, Wikner, J, Razavi, K. Inyección de privilegios de rama: Comprometiendo las mitigaciones de hardware de Spectre v2 mediante la explotación de condiciones de carrera de predictores de rama. En: 34.º Simposio de Seguridad USENIX, 2025. Número CVE: CVE-2024-45332 ETH Zürich News. Traducido al español

Leer más »
Scroll al inicio