El Portal de las Tecnologías para la Innovación

Categoría: Eventos Tecnológicos

Sustainability Accelerator showcases 18 innovations to tackle greenhouse gas removal

During a daylong event, researchers shared information on their innovative projects, participated in panel discussions, and shared ideas, all in service of a common goal: removing the equivalent of billions of tons of carbon dioxide from the atmosphere annually by midcentury. “Dangerous territory” lies ahead if the world continues on its path toward global warming beyond 1.5 degrees Celsius above pre-industrial levels, according to Professor Steven Chu, a Nobel laureate and former U.S. Secretary of Energy. Chu was among more than a dozen researchers, entrepreneurs, and investors who presented during a recent event on campus hosted by Stanford’s Sustainability Accelerator. Chu, who delivered the keynote address, described increased risks of extreme weather events, sea-level rise, and impacts on ecosystems and human health from climate change. Oceans to date have provided a buffer by absorbing most of the excess heat trapped in Earth’s climate system. “It’s like you’ve been chain smoking cigarettes for 30 years – you’ve started a bunch of mutations that invariably might give you heart disease, stroke, lung cancer, but you don’t see it now,” he said. But crises can also present opportunities, said Arun Majumdar, dean of the Stanford Doerr School of Sustainability. We are at an inflection point for climate, artificial intelligence, and government engagement, he said, describing sustainability as this century’s defining challenge and opportunity. “Our ambition in education, research, innovation, and impact has to match the scale, complexity, and urgency of the issues in sustainability,” Majumdar said. “The Accelerator is a big piece of that.” Both scholars spoke at the “Accelerator Showcase,” a daylong event held on March 18 that brought to life a new ecosystem that has blossomed around the Sustainability Accelerator’s Greenhouse Gas Removal Flagship Destination over the past year. The center of the ecosystem is the cohort of over 80 students, postdocs, and faculty working together across disciplines to advance their projects and the field. The cohort focuses on thought leadership; technical, business, and policy innovation; and developing the skills needed to achieve the Flagship’s gigaton removals goal. More about the Sustainability Accelerator Scaling impact In addition to panel discussions, three-minute talks about projects supported by the Accelerator, and Chu’s keynote, the day included time for researchers and the more than 300 attendees to talk in small groups about ideas and progress toward a common goal: annual removal of greenhouse gases equivalent to billions of tons, or “gigatons,” of carbon dioxide annually from the atmosphere by midcentury, one of the Accelerator’s goals or “Flagship Destinations.” During his opening remarks, Majumdar emphasized the importance of thinking about scale from the beginning of a research project, which is unusual in academia. The Accelerator is structured to change that and reverse engineer pathways, he said. Scale was a recurring theme. Currently, more than 50 gigatons of carbon dioxide-equivalent emissions are added to the atmosphere each year, mostly through burning fossil fuels. Globally, scientists estimate that up to 10 gigatons of CO2 will need to be removed annually from the atmosphere by 2050, with potential for increased removal capacity up to 20 GtCO2 per year by 2100. Limiting global warming to well below 2 degrees Celsius, a global goal to avoid the worst impacts of climate change, requires reducing concentrations of heat-trapping gases in Earth’s atmosphere. To make this happen, experts from around the world in policy, technology, nature-based solutions, and other fields will need to work together, according to Jeffrey Brown, managing director of the Accelerator’s greenhouse gas removal and water programs. The Accelerator is “truly special,” he added, because it pairs development of innovative climate technologies with efforts to build markets and inform policies. In his keynote, Chu also emphasized a need to bring down costs and develop new solutions. “I’ve often heard over the last couple of decades that we have all the technologies, we just need the political will,” he said. “I interpret that as meaning we don’t have all the technologies.” From earthworms to fuel cells The three-minute project presentations during the Accelerator Showcase were grouped according to the type of removal – atmospheric, forest and soil, terrestrial, and oceanic. At the start of Associate Professor Jane Willenbring’s talk, a crinkling sound filled the room: earthworms burrowing through the soil. She explained how worms sequester carbon and why she believes the project can scale, using the fishing industry’s worm production for bait as a successful model that could be emulated. Another presentation revealed a new low-cost sensor no larger than a quarter that’s designed to accurately measure carbon emissions from agricultural soil. When Professor Thomas Jaramillo took the stage, he jokingly asked audience members if they would like to pay for something they can’t touch for a million years, referring to the concept of selling credits for sequestered carbon dioxide. He then presented his work testing an electrolyzer and fuel cell components for reducing ocean acidity while removing carbon dioxide from the atmosphere and producing a chemical useful for generating electricity. Other projects featured electrochemistry, fungal communities, rocks, kelp, and more. Promising connections «Finally, there’s excitement about earthworms not exclusively from 8-year-olds, Charles Darwin, and my own group members! I was excited to be contacted after the Accelerator Showcase by folks with earnest, tangible commitments to improving soil health and meeting goals for CO2 removal, and I hope we can work out collaborations.» – Jane Willenbring, associate professor of Earth and planetary sciences and principal investigator of the “Global Worming”project Cost, collaboration, and magnitude Professor Yi Cui, the inaugural faculty director of the Sustainability Accelerator, moderated a panel discussion with entrepreneurs and investors on “Scaling to Impact.” They outlined how the greenhouse gas removal industry can approach obstacles as it works to dramatically scale up operations by focusing on economic viability, standardized measurements, and data transparency. “We need to go to a gigaton scale of capture,” said Cui, who has founded five companies to commercialize technologies developed by his research group at Stanford. “Looking at gigaton scale, if you calibrate yourself, this might mean a hundred billion to trillion-dollar market.” In a panel discussion moderated by Michael Wara, senior director for policy at the Sustainability Accelerator, venture capitalists urged researchers working to scale

Leer más »

Sustainability Accelerator presenta 18 innovaciones para abordar la eliminación de gases de efecto invernadero

Durante un evento de un día, los investigadores compartieron información sobre sus proyectos innovadores, participaron en mesas redondas e ideas compartidas, todo al servicio de un objetivo común: eliminar el equivalente a miles de millones de toneladas de dióxido de carbono de la atmósfera anualmente a mediados de siglo. “Dangerous territory” está por delante si el mundo continúa en su camino hacia el calentamiento global más allá de 1,5 grados centígrados por encima de los niveles preindustriales, según el profesor Chu Steven, un premio Nobel y ex Estados Unidos. Secretario de Energía. Chu estuvo entre más de una docena de investigadores, empresarios e inversores que presentaron durante un evento reciente en el campus organizado por Stanford Acelerador de Sostenibilidad. Chu, quien pronunció el discurso de apertura, describió el aumento de los riesgos de eventos climáticos extremos, el aumento del nivel del mar y los impactos en los ecosistemas y la salud humana del cambio climático. Los océanos hasta la fecha han proporcionado un amortiguador al absorber la mayor parte del exceso de calor atrapado en el sistema climático terrestre. “Es como si hubieras estado fumando cigarrillos en cadena durante 30 años – has comenzado un montón de mutaciones que invariablemente podrían darte enfermedad cardíaca, accidente cerebrovascular, cáncer de pulmón, pero no lo ves ahora,”, dijo. Pero las crisis también pueden presentar oportunidades, dijo Arun Majumdar, decano de la Escuela de Sostenibilidad Stanford Doerr. Estamos en un punto de inflexión para el clima, la inteligencia artificial y la participación del gobierno, dijo, describiendo la sostenibilidad como un desafío y una oportunidad que definen los siglos. “Nuestra ambición en educación, investigación, innovación e impacto tiene que coincidir con la escala, complejidad y urgencia de los problemas de sostenibilidad,” Majumdar dijo. “The Accelerator es una gran parte de that.” Ambos académicos hablaron en el “Accelerator Showcase,” un evento de un día celebrado el 18 de marzo que dio vida a un nuevo ecosistema que ha florecido en torno a los Aceleradores de Sostenibilidad Destino Flagship Eliminación de Gases de Efecto Invernadero durante el año pasado. El centro del ecosistema es la cohorte de más de 80 estudiantes, postdoctorados y profesores que trabajan juntos en todas las disciplinas para avanzar en sus proyectos y en el campo. La cohorte se centra en el liderazgo de pensamiento; innovación técnica, comercial y de políticas; y el desarrollo de las habilidades necesarias para lograr el objetivo de remoción de gigatoneladas de Flagshiphips. Más sobre el Acelerador de Sostenibilidad Impacto de escala Además de las mesas redondas, las charlas de tres minutos sobre proyectos apoyados por el Acelerador y la nota clave de Chuu, el día incluyó tiempo para que los investigadores y los más de 300 asistentes hablaran en pequeños grupos sobre ideas y avances hacia un objetivo común: eliminación anual de gases de efecto invernadero equivalentes a miles de millones de toneladas, o “gigatoneladas,” de dióxido de carbono anualmente de la atmósfera a mediados de siglo uno de los objetivos de Acceleratorerations o “Flagship Destinations.” Durante sus comentarios de apertura, Majumdar enfatizó la importancia de pensar en la escala desde el comienzo de un proyecto de investigación, lo cual es inusual en la academia. El acelerador está estructurado para cambiar eso y las vías de ingeniería inversa, dijo. La escala fue un tema recurrente. Actualmente, más de 50 gigatoneladas de emisiones equivalentes de dióxido de carbono se agregan a la atmósfera cada año, principalmente mediante la quema de combustibles fósiles. A nivel mundial, los científicos estiman que se necesitarán hasta 10 gigatoneladas de CO2 eliminado anualmente desde la atmósfera para 2050, con potencial para una mayor capacidad de eliminación de hasta 20 GtCO2 por año para 2100. Limitar el calentamiento global a muy por debajo de 2 grados centígrados, un objetivo global para evitar los peores impactos del cambio climático, requiere reducir las concentraciones de gases que atrapan el calor en la atmósfera terrestre. Para que esto suceda, los expertos de todo el mundo en políticas, tecnología, soluciones basadas en la naturaleza y otros campos deberán trabajar juntos, según Jeffrey Brown, director gerente de los programas de remoción de gases de efecto invernadero y agua de Acceleratorators. El Acelerador es “verdaderamente especial,”, agregó, porque combina el desarrollo de tecnologías climáticas innovadoras con esfuerzos para construir mercados e informar políticas. En su discurso de apertura, Chu también enfatizó la necesidad de reducir los costos y desarrollar nuevas soluciones. “Iicive a menudo escuchó en las últimas décadas que tenemos todas las tecnologías, solo necesitamos la voluntad política,”, dijo. “interpreto que significa que no tenemos todas las tecnologías.” De lombrices de tierra a pilas de combustible Las presentaciones del proyecto de tres minutos durante el Accelerator Showcase se agruparon de acuerdo con el tipo de eliminación – atmosférica, forestal y del suelo, terrestre y oceánica. Al comienzo del Profesor Asociado Jane Willenbring’s talk, un sonido arrugado llenó la habitación: lombrices de tierra excavando en el suelo. Ella explicó cómo gusanos secuestran carbono y por qué cree que el proyecto puede escalar, utilizando la producción de gusanos de la industria pesquera para el cebo como un modelo exitoso que podría emularse. Otra presentación reveló un nuevo sensor de bajo costo de no más de un cuarto de paja diseñado para mida con precisión las emisiones de carbono del suelo agrícola. Cuando Profesor Tomás Jaramillo subió al escenario, en broma preguntó a los miembros de la audiencia si les gustaría pagar por algo que no pueden tocar durante un millón de años, refiriéndose al concepto de vender créditos por dióxido de carbono secuestrado. Luego presentó su trabajo probar un electrolizador y componentes de pila de combustible para reducir la acidez del océano mientras se elimina el dióxido de carbono de la atmósfera y se produce un producto químico útil para generar electricidad. Otro proyectos electroquímica destacada, comunidades de hongos, rocas, algas marinas y más. Conexiones prometedoras ¡»Finalmente, hay emoción sobre las lombrices de tierra no exclusivamente de niños de 8 años, Charles Darwin, y los miembros de mi propio grupo! Estaba emocionado de ser contactado después del Accelerator Showcase por personas con compromisos serios y tangibles para mejorar la salud

Leer más »

Semana Nacional de Robótica — Última Investigación, Avances y Recursos de IA Física

Todas las noticias de este año celebran a los innovadores, investigadores y desarrolladores que avanzan en la robótica e inspiran a la próxima generación de líderes de la industria. Esta Semana Nacional de Robótica, que se extenderá hasta el 12 de abril, NVIDIA destaca las tecnologías pioneras que están dando forma al futuro de las máquinas inteligentes e impulsando el progreso en la fabricación, la atención médica, la logística y más. Vuelva aquí durante toda la semana para conocer lo último sobre IA física, que permite a las máquinas percibir, planificar y actuar con mayor autonomía e inteligencia en entornos del mundo real. Avances en simulación robótica y aprendizaje de robots están impulsando este cambio fundamental en la industria. Además, la aparición de modelos de fundación mundial está acelerando la evolución de los robots habilitados para IA capaces de adaptarse a escenarios dinámicos y complejos. Por ejemplo, proporcionando modelos de base de robot como GR00T N1 NVIDIA, marcos como Isaac Sim NVIDIA y Lab Isaac para simulación y entrenamiento de robots, y generación de datos sintéticos tuberías para ayudar a entrenar robots para diversas tareas, el NVIDIA Isaac y GR00T las plataformas están capacitando a los investigadores y desarrolladores para superar los límites de la robótica. Siga leyendo toda la semana para sumergirse en las últimas investigaciones y recursos que equiparán a los desarrolladores de robótica para estimular la innovación en todas las industrias. Avanzando en Robótica: IEEE Robotics and Automation Society Honra a los Innovadores Emergentes 🔗 La IEEE Robotics and Automation Society anunció en marzo a los destinatarios de su Premio de Carrera Académica Temprana 2025, reconociendo las contribuciones sobresalientes a los campos de la robótica y la automatización. Los homenajeados de este año —, incluidos NVIDIAians Shuran Song, Abhishek Gupta y Yuke Zhu —, son avances pioneros en el aprendizaje escalable de robots, el aprendizaje de refuerzo del mundo real y la IA incorporada. Su trabajo está dando forma a la próxima generación de sistemas inteligentes, impulsando la innovación que impacta tanto en la investigación como en las aplicaciones del mundo real. Obtenga más información sobre los ganadores del premio: Estos investigadores serán reconocidos en el Conferencia Internacional sobre Robótica y Automatización en Mayo. Manténgase actualizado sobre la investigación de robótica líder de NVIDIAia a través del Robotics Research and Development Digest (R2D2) serie de blogs tecnológicos, suscribirse a esto boletín y siguiendo a NVIDIA Robotics en YouTube, Discordia y foros de desarrolladores. NVIDIA Blog. Traducido al español

Leer más »

Rockets to Retail: Intel Core Ultra Delivers Edge AI for Video Management

At Intel Vision, Network Optix debuts natural language prompt prototype to redefine video management, offering industries faster AI-driven insights and efficiency. On the surface, aerospace manufacturers, shopping malls, universities, police departments and automakers might not have a lot in common. But they each collectively use and manage hundreds to thousands of video cameras across their properties. Another thing they have in common is Network Optix. The global software development company, headquartered in Walnut Creek, California, specializes in developing platforms that allow industries to manage, record and analyze huge amounts of video data. Working with Intel, Network Optix has optimized its software with the Intel® Core™ Ultra 200H series of processors in mind. With robust central processing units (CPUs), integrated neural processing units (NPUs) and graphics processing units (GPUs), the Intel processors, code-named Arrow Lake H, are designed to handle this type of complex AI at the edge. Press Kit: Intel Vision 2025 IP, or internet protocol, cameras transmit and receive data over a computer network. They’re the typical surveillance cameras you might see at government buildings, around shopping centers or on college campuses. They feed into a central database that a security guard or operations center can monitor. Artificial intelligence (AI) is changing the way companies and organizations think about and use video data that goes well beyond security. With AI, cameras along manufacturing assembly lines can count products and tell businesses how many are produced per day and when they were packaged. AI models can alert managers to where production might be slowing or when and how defects occur. And AI camera vision geared toward health and safety can set alerts when employees are not wearing proper protective gear. Processing at the Edge Makes the Difference Network Optix software can crunch all this video data in the cloud, but the big advantages and speed are seen via a server on premises, taking advantage of the power efficiency and overall performance of Intel Core Ultra 200H processors that were designed for edge AI applications. Unlike large data centers with dedicated AI infrastructure, edge AI deployments must seamlessly integrate into pre-existing IT systems in space-constrained, low-power and cost-sensitive environments. They’re not only processing AI there, but also the compute, video and graphics workloads. “You can search a whole year of data in several seconds,” says James Cox, vice president of Business Development at Network Optix. “It was a customer pain point that it took a long time to load up an archive and look through it. The old systems were slow to aggregate data around the world for a global company.” Network Optix’s technology is designed to be highly scalable and capable of handling large numbers of cameras and vast amounts of video data. The company currently has customers collectively using 4.5 million cameras globally across its system. “If you tried to run AI in the cloud or somewhere else that wasn’t your local premises, you’d be streaming a lot of data to the cloud. It’s about 5 megabytes per camera per second. If you have a hundred cameras, you’re now pushing 500 megs constantly up to the cloud, and a lot of sites have thousands of cameras, so it’s just not doable,” Cox says. “By running it at the edge, you turn it into just pure data, and you can then look at all of that and get alerts on it.” Those aerospace manufacturers? They’re some of Network Optix’s biggest customers. Think about a rocket launch … and the number of cameras required to provide an uninterrupted live feed of all areas of the rocket to engineers and the control room. The real-time information they capture is crucial to a successful launch. In its demonstration at Intel Vision, this screenshot image from Network Optix’s natural language prompt prototype using an Intel Core Ultra 265H processor shows several different video searches at once. Images in the middle show boundary boxes or object classification where the AI has detected and marked cars, a person, a bus, a motorbike and a traffic light in two video clips. CLIP Prompt text boxes in the other images show only the video clips where the AI model has found what was searched for. In these example cases, “black and red cars” was a search, “cars not crashing” was another search, as well as “room.” (Credit: Network Optix) An image from Network Optix’s AI video management platform shows a prompt search screen where the user enters text of what they’re searching for or want to be alerted about. Prompt 1 is a search for “highway with cars” and prompt 2 is “men working at construction site,” which is the example video clip. The CLIP Prompt text box on the image tells the user it recognized the construction workers through object classification of human faces. (Credit: Network Optix) The Event Rules menu in Network Optix AI models lets user perform an if-this-then-that scenario. This screenshot shows a user selecting a text overlay, where the CLIP prompt will show what was being searched via simple text overlay on the video clip. The menu shows other options available, including bookmarking clips, setting up a device recording each time the search term is found or sending an email, mobile or desktop notification. (Credit: Network Optix) (~2 MB) Customers that include large municipal traffic engineers or university campuses use drop-down menus to set filters within the platform to search for or set alerts for specific things such as traffic crashes or people fighting, for example. Within seconds, the AI scans all video feeds, live and recorded, for those parameters and pulls up only the relevant clips. It’s able to scan across multiple properties globally with no technical training needed; anyone from a receptionist to a security guard or administrator can use the system. Network Optix platforms integrate OpenAI’s CLIP (Contrastive Language – Image Pre-training) technology. It’s a neural network that recognizes images and connects them to text descriptions. It can detect objects, colors, human behavior and people, with an important distinction: Network Optix does

Leer más »

Rockets to Retail: Intel Core Ultra Ofrece Edge AI para Gestión de Video

En Intel Vision, Network Optix estrena un prototipo rápido de lenguaje natural para redefinir la gestión de video, ofreciendo a las industrias información y eficiencia más rápidas impulsadas por la IA. En la superficie, los fabricantes aeroespaciales, centros comerciales, universidades, departamentos de policía y fabricantes de automóviles podrían no tener mucho en común. Pero cada uno usa y administra colectivamente cientos o miles de cámaras de video en sus propiedades. Otra cosa que tienen en común es Network Optix. La compañía global de desarrollo de software, con sede en Walnut Creek, California, se especializa en el desarrollo de plataformas que permiten a las industrias administrar, registrar y analizar grandes cantidades de datos de video. Trabajando con Intel, Network Optix ha optimizado su software con Intel® Core™ Ultra 200H serie de procesadores en mente. Con unidades de procesamiento central robustas (CPU), unidades de procesamiento neuronal integradas (NPU) y unidades de procesamiento de gráficos (GPU), los procesadores Intel, con nombre en código Arrow Lake H, están diseñados para manejar este tipo de IA compleja en el borde. Kit de Prensa: Visión Intel 2025 IP, o protocolo de Internet, las cámaras transmiten y reciben datos a través de una red informática. Son las cámaras de vigilancia típicas que puedes ver en edificios gubernamentales, alrededor de centros comerciales o en campus universitarios. Se alimentan en una base de datos central que un guardia de seguridad o centro de operaciones puede monitorear. La inteligencia artificial (IA) está cambiando la forma en que las empresas y organizaciones piensan y usan los datos de video que van mucho más allá de la seguridad. Con AI, las cámaras a lo largo de las líneas de ensamblaje de fabricación pueden contar productos y decirle a las empresas cuántos se producen por día y cuándo se empaquetaron. Los modelos de IA pueden alertar a los gerentes sobre dónde podría estar disminuyendo la producción o cuándo y cómo ocurren los defectos. Y la visión de la cámara de IA orientada a la salud y la seguridad puede establecer alertas cuando los empleados no usan el equipo de protección adecuado. Procesamiento en el Borde Hace la Diferencia El software Network Optix puede procesar todos estos datos de video en la nube, pero las grandes ventajas y la velocidad se ven a través de un servidor en las instalaciones, aprovechando la eficiencia energética y el rendimiento general de los procesadores Intel Core Ultra 200H que fueron diseñados para aplicaciones de IA de borde. A diferencia de los grandes centros de datos con infraestructura de IA dedicada, las implementaciones de IA de borde deben integrarse sin problemas en sistemas de TI preexistentes en entornos con limitaciones de espacio, baja potencia y sensibles a los costos. No solo están procesando IA allí, sino también las cargas de trabajo de cómputo, video y gráficos. “Puedes buscar todo un año de datos en varios segundos,” dice James Cox, vicepresidente de Desarrollo de Negocios de Network Optix. “Fue un punto doloroso para el cliente que tomó mucho tiempo cargar un archivo y mirarlo. Los sistemas antiguos tardaron en agregar datos en todo el mundo para una empresa global.” La tecnología Network Optixirs está diseñada para ser altamente escalable y capaz de manejar un gran número de cámaras y grandes cantidades de datos de video. La compañía actualmente tiene clientes que utilizan colectivamente 4.5 millones de cámaras a nivel mundial en todo su sistema. “Si intentaste ejecutar IA en la nube o en otro lugar que no fuera tu local, estarías transmitiendo muchos datos a la nube. Es de unos 5 megabytes por cámara por segundo. Si tienes cien cámaras, ahora estás empujando 500 megas constantemente a la nube, y muchos sitios tienen miles de cámaras, por lo que no es factible, dice Cox. “Al ejecutarlo en el borde, lo conviertes en datos puros, y luego puedes ver todo eso y recibir alertas en él.” ¿Esos fabricantes aeroespaciales? Son algunos de los clientes más grandes de Network Optixia. Piense en el lanzamiento de un cohete … y la cantidad de cámaras necesarias para proporcionar una transmisión en vivo ininterrumpida de todas las áreas del cohete a los ingenieros y la sala de control. La información en tiempo real que capturan es crucial para un lanzamiento exitoso. En su demostración en Intel Vision, esta imagen de captura de pantalla del prototipo de mensaje de lenguaje natural de Network Optix, que utiliza un procesador Intel Core Ultra 265H, muestra varias búsquedas de video diferentes a la vez. Las imágenes en el medio muestran cuadros de límite o clasificación de objetos donde la IA ha detectado y marcado automóviles, una persona, un autobús, una moto y un semáforo en dos videoclips. Los cuadros de texto CLIP Prompt en las otras imágenes muestran solo los videoclips donde el modelo AI ha encontrado lo que se buscó. En estos casos de ejemplo, “autos negros y rojos” era una búsqueda, “autos que no se estrellaban” era otra búsqueda, así como “room.” (Crédito: Network Optix) An image from Network Optix’s AI video management platform shows a prompt search screen where the user enters text of what they’re searching for or want to be alerted about. Prompt 1 is a search for “highway with cars” and prompt 2 is “men working at construction site,” which is the example video clip. The CLIP Prompt text box on the image tells the user it recognized the construction workers through object classification of human faces. (Credit: Network Optix) El menú Reglas de eventos en los modelos Network Optix AI permite al usuario realizar un escenario if-this-then-that. Esta captura de pantalla muestra a un usuario seleccionando una superposición de texto, donde el mensaje CLIP mostrará lo que se estaba buscando a través de una superposición de texto simple en el videoclip. El menú muestra otras opciones disponibles, incluidos los clips de marcadores, la configuración de una grabación de dispositivo cada vez que se encuentra el término de búsqueda o el envío de una notificación por correo electrónico, móvil o de escritorio. (Crédito: Red

Leer más »

Doodle Kingdom: Medieval es gratis esta semana para Android e iOS en la aplicación para móviles de la Epic Games Store

¡Bienvenidos al jueves de juegos gratis! Esta semana, en la aplicación para móviles de la Epic Games Store podéis haceros con Doodle Kingdom: Medieval* gratis hasta el 10 de abril. Se puede descargar en dispositivos Android en todo el mundo y en iOS en la Unión Europea. *Nota: Puede que no estén disponibles en todas las regiones Doodle Kingdom: Medieval JoyBits Ltd. Doodle Kingdom: Medieval es un juego de rompecabezas y fantasía que convierte a los jugadores en magos y caballeros que crean y defienden (¡o destruyen!) sus propios reinos mágicos, donde también pueden criar dragones.  La divertida premisa de los desarrolladores de JoyBits es la siguiente: Dios creó el mundo y la gente lo estropeó con su mortífera tecnología. Así que decidió empezar de nuevo. Solo que esta vez, el mundo estaría lleno de magia y hechicería. ¡Y ahí es donde entráis vosotros!  Hay muchas formas de jugar a Doodle Kingdom: Medieval, empezando por combinar elementos en el modo Génesis del juego. Este modo trata sobre todo de experimentar, ya que podéis elegir dos elementos e intentar combinarlos para crear algo nuevo. El acto de creación sigue una cierta lógica mágica, y, cuanto más lo intentéis, más sentido tendrá. Por ejemplo, si combináis los elementos Cielo y Animal, crearéis Aves. Combinad los elementos Humanos y Magia, y crearéis un Ilusionista. Hay más de cien elementos que podéis crear y descubrir.  Después de combinar los elementos con éxito, Doodle Kingdom: Medieval os deleitará con una cita relevante, y a menudo divertida. Imaginad que combináis un Humano y un Orco para crear un nuevo descubrimiento cuestionable. Doodle Kingdom: Medieval podría citar a Charles Dickens, quien escribió en Martin Chuzzlewit: «Va a ser un cadáver precioso». Cuanto más descubráis a través de esta experimentación lúdica, más posibilidades tendréis. El modo Misiones de Doodle Kingdom: Medieval os permitirá asumir un papel de fantasía medieval a medida que desbloqueéis ciertos elementos. En «El retorno del rey», os pondréis en la piel de un caballero que debe ayudar a un príncipe a restablecer la vieja gloria de su reino en ruinas. Pero antes tendréis que descubrir cómo crear el elemento del castillo. En la misión «La vuelta del nigromante», os convertiréis en un brujo, un «mago oscuro» que pretende conquistar el mundo, siempre que primero combinéis elementos y encontréis un libro específico. Desbloquead la misión «Cómo adiestrar a tu dragón» para convertiros en criadores de dragones, vuestro trabajo consistirá en alimentar y criar cuatro tipos diferentes de dragones.  Doodle Kingdom: Medieval también incluye un modo de juego inspirado en el género «endless runner» (corredor infinito). En él, vuestro personaje no solo corre, sino que también participa en combates medievales, y tenéis que curarlo y protegerlo con pociones mágicas que reponen su salud y energía. Entre partidas, podéis mejorar las habilidades de vuestro héroe, como la fuerza y la defensa.  Podéis descargar Doodle Kingdom: Medieval gratis, y no olvidéis pasaros por la Epic Games Store para móviles para ver qué más podéis encontrar en su creciente catálogo. Si queréis conocer más funciones, guías y noticias sobre videojuegos, echad un vistazo también a la página de noticias de la Epic Games Store.

Leer más »

Más Seguro, Más Claro y Más Explícito: ISO 10218 Obtiene un Cambio de Imagen

Dirigido por la Oficial de Cumplimiento Técnico Global de Teradyne Robotics, Roberta Nelson Shea, un equipo de expertos globales ha establecido requisitos de seguridad para equipos robóticos, aplicaciones de robots y células de robots. Hablamos con Nelson Shea sobre el estándar de seguridad ISO 10218 actualizado y lo que significa para los fabricantes de robots, integradores y usuarios finales. **Has estado en **las noticias recientemente debido a una importante actualización de la norma de seguridad de robots industriales ISO 10218. ¿Cuál fue tu papel? Mi papel es oficialmente como ‘Convener,’ que en el lenguaje de la estandarización es similar a ser la Silla. Básicamente, significa que lidero el grupo y ayudo a desarrollar un consenso para que podamos avanzar y progresar. El grupo tiene alrededor de 160 de nuestros mejores amigos. La mayoría son de la industria, incluidos fabricantes de robots, integradores, proveedores de accesorios y usuarios finales. También tenemos personas de laboratorios de pruebas y academia. El grupo incluye personas de toda Europa, América del Norte, México, Brasil, Japón, Corea, China, India, Australia y, por correspondencia, Rusia. Es verdaderamente global. Eso es algo de lo que estamos muy orgullosos. No conozco ningún otro estándar de seguridad de maquinaria o equipo que haya tenido este grado de aceptación y adopción global. Si esperas la perfección, nunca llegarás allí. Nuestro mantra es que nos esforzamos por mejorar. Con eso pudimos mantener el rumbo y seguir adelante. Antes de llegar a la actualización en sí, para aquellos que no están familiarizados con ISO 10218, ¿qué cubre y a quién pertenece? Tenga en cuenta que ISO 10218 puede adoptarse en diferentes jurisdicciones con diferentes nombres y en diferentes plazos. Por ejemplo, la adopción de la Unión Europea es automática desde el momento de la publicación. Mientras tanto, se está trabajando para adoptar y lanzar la nueva actualización 10218 en Canadá y los Estados Unidos (como ANSI R15.06 y CSA Z434, respectivamente) a finales de este año. La Parte 1 y la Parte 2 de ISO 10218 son los documentos fundamentales para la seguridad en el mundo de la robótica industrial. La Parte 1 cubre los requisitos de seguridad asociados con el robot en sí, lo cual es de interés para los fabricantes de robots. La parte 2 cubre los requisitos asociados con una aplicación de robot y una célula de robot. Pueden sonar como lo mismo, pero como siempre es el camino con los estándares de seguridad, el diablo está en el detalle de las definiciones. Una aplicación ‘robot’ incluye el efector final de las robots, el uso previsto definido de las robots, el software de programación y el workpiece(s). Una célula robot se refiere a cuando una aplicación robot está protegida para que las personas estén protegidas. Cuando haya completado la aplicación del estándar de la Parte 2, tiene un ‘robot cell’. Esto no significa necesariamente que tenga cercas, guardias o jaulas. Significa que está protegido para que las personas estén protegidas de los riesgos. Puede usar una cerca o un guardia, pero hay muchas otras formas de hacerlo, como cortinas de luz y escáneres de seguridad. O bien, podría usar las funciones de seguridad del propio robot para implementar una célula robótica colaborativa. ¿Cuáles son los elementos más importantes de la actualización de 2025? Lo más importante para todos es envolver sus brazos es que los requisitos que estaban implícitos: para los lectores cuidadosos, en la versión de 2011 ahora se establecen explícitamente. Por ejemplo, ahora tenemos un requisito que habla de ‘capacidad de lifting.’ Cuando un robot industrial levanta y mueve una parte en el espacio, se colocan todo tipo de fuerzas, aceleraciones y pares en el brazo del robot. Hasta ahora, no teníamos el requisito de un factor de seguridad ‘para levantar’ o un factor de seguridad ‘para mover dinámicamente’. Nunca se dijo. ¿Era un problema para los fabricantes de robots? No somos conscientes de que alguna vez sea un problema, porque de lo contrario el robot no funcionaría. Pero se presenta explícitamente en la versión 2025. La ventaja de tener más claridad es que iguala el campo de juego. Si todos dicen que están cumpliendo con el estándar, al menos tenemos una comparación muy básica desde el punto de vista de la seguridad. La mayoría de las grandes mejoras están en la Parte 2. Por ejemplo, enfatizamos la aplicación del robot y la célula del robot, mientras que la versión de 2011 cubría sistemas de robots con efectores finales que implicaban cubrir las piezas, el uso previsto y la protección. Esos elementos están cubiertos más explícitamente ahora. ISO/TS 15066 para aplicaciones de robots colaborativos se ha incorporado en el estándar actualizado e ISO/TS 15066 eventualmente se convertirá en su propio estándar. También hay requisitos adicionales para la ciberseguridad. La Parte 1 vio algunos cambios significativos. Por ejemplo, hay muchos más requisitos y claridad en torno a las funciones de seguridad. Mientras que el documento de 2011 requería solo unas pocas funciones de seguridad, la versión de 2025 requiere más de veinte. ¿Qué significa para fabricantes e integradores? Todos los fabricantes de robots tienen algo de trabajo que hacer. Para algunos es menos que otros, pero todos los fabricantes de robots van a hacer mejoras. Las marcas de robots dominantes, incluidos Universal Robots, han tratado de hacer un buen trabajo en torno a la seguridad funcional. Todos nosotros hemos proporcionado algunas de las nuevas funciones de seguridad requeridas. ¿Todos pensamos que estábamos haciendo un buen trabajo? Sí. ¿Hay ahora lagunas para cada fabricante de robots? Sí. El estándar ‘antiguo’ se retirará en la primavera de 2027. Antes de eso, los fabricantes deberán cumplir con el nuevo documento de 2025. También hay rascadores de cabeza. Por ejemplo, uno de los nuevos requisitos se refiere a ejes externos. Cada fabricante ofrece ejes externos, y todos los fabricantes creíbles ofrecen una función de seguridad para limitar la velocidad. Sin embargo, en el nuevo estándar de la Parte 1, los fabricantes deben externalizar algunas de las funciones de seguridad para un eje externo

Leer más »

Broadcom Avanza la Conectividad Óptica para la Infraestructura de IA con Soluciones Líderes en la Industria en OFC 2025

Broadcom presenta soluciones de interconexión óptica para clústeres de IA de próxima generación; Destaca el camino hacia 200T Broadcom Inc.(NASDAQ: AVGO) anunció hoy la expansión de su cartera de soluciones de interconexión óptica para permitir la infraestructura de IA. Estas tecnologías innovadoras, incluidos los avances en óptica coempaquetada (CPO), DSP 200G/lane y SerDes, óptica 400G y PCIe Gen6 sobre óptica, se exhibirán en 2025 Conferencia y Exposición de Comunicaciones de Fibra Óptica(OFC). Las demostraciones de Broadcomics destacan la hoja de ruta de los compañías hacia las soluciones de interconexión óptica 200T. Las cargas de trabajo de IA están aumentando rápidamente, lo que impulsa la necesidad de un mayor ancho de banda, una menor latencia y interconexiones ópticas más eficientes. Broadcom cumple con estas demandas en evolución con una cartera integral de soluciones innovadoras diseñadas para respaldar el crecimiento y la escalabilidad de los clústeres de IA. Estas soluciones incluyen DSP de baja potencia y alto ancho de banda, SerDes y CPO para reducir el consumo de energía y mejorar la integridad de la señal, y PCIe Gen6 sobre óptica para mejorar la conectividad entre los aceleradores de IA y otros componentes del sistema. En OFC, Broadcom muestra una amplia gama de tecnologías novedosas que subrayan nuestro compromiso de desarrollar soluciones de vanguardia para la infraestructura de IA: “OFCics 50th anniversary brinda la oportunidad de reconocer los muchos logros de la industria, incluidas las primeras contribuciones de la industria de Broadcomics a este campo, dijo” Kawwas Charlie, Ph. D., Presidente, Grupo de Soluciones Semiconductoras, Broadcom. “A hace un añoBroadcom se comprometió a ampliar los límites técnicos para ser pioneros en nuevas tecnologías abiertas, escalables y eficientes en energía para permitir la infraestructura de IA. Nuestra cartera de soluciones de interconexión óptica, destacada en OFC 2025, allana el camino a 200T al abordar los desafíos de rendimiento, potencia y escalabilidad de los clústeres de IA.” Además, Broadcom está colaborando con más de 15 socios para demostrar una amplia gama de sus soluciones líderes en la industria en todo el piso de exhibición. A lo largo de la conferencia, Broadcom está hablando sobre los desafíos técnicos y los avances en redes ópticas y comunicaciones. Las charlas clave y las sesiones del panel técnico de este año incluyen: La conferencia de 2025 tiene lugar en San Franciscode Del 30 de marzo al 3 de abril. Para obtener más información sobre estas sesiones de charlas técnicas, demostraciones conjuntas de socios, exhibiciones de tecnología, noticias clave de Broadcom y otras actividades en OFC, visite aquí. Broadcom News. Traducido al español

Leer más »

Lenovo en Hannover Messe: Cómo la IA está impulsando la Próxima Revolución Industrial

Lenovo revela los hallazgos de la industria manufacturera de EMEA de la encuesta de investigación CIO Playbook 2025 Las demostraciones de clientes in situ ilustran la ventaja de la IA híbrida de Lenovo En Hannover Messe 2025, Lenovo ha presentado una nueva investigación que destaca un cambio importante en la industria manufacturera en EMEA: las empresas aumentarán su gasto en IA en un 106% en los próximos 12 meses. Los hallazgos, parte de CIO Playbook 2025 LenovooVays79% de los proyectos de IA de fabricación implementados en el último año cumplieron o superaron las expectativas—la tasa de éxito más alta de cualquier sector, estas ideas subrayan el liderazgo de Lenovoo en la transformación impulsada por la IA. La industria manufacturera se distingue de otras verticales con su mayor inversión en IA, dividida entre las herramientas de IA interpretativa (44%) y Generativa (44%). Esto se produce cuando la industria busca cumplir con sus principales prioridades comerciales para 2025 al mejorar la toma de decisiones, mejorar la experiencia del cliente y aumentar el crecimiento de las ganancias. Para alcanzar esos objetivos, el 67% está utilizando on-prem, privado y/o híbrido como su infraestructura principal para abordar las cargas de trabajo de IA. La implementación exitosa de la IA en la fabricación está impulsada por tres factores principales: la facilidad con que la IA se puede integrar con los sistemas existentes; tener suficientes recursos híbridos de computación y almacenamiento; y asegurar el presupuesto adecuado junto con un liderazgo comprometido. Sin embargo, los fabricantes aún enfrentan grandes desafíos, incluidos los altos costos de infraestructura y red, las dificultades para escalar la IA en todo el negocio y la falta de experiencia en IA asequible “Las empresas manufactureras están priorizando la toma de decisiones, el cumplimiento y la productividad de los empleados a medida que adoptan la IA para mejorar la eficiencia operativa e impulsar la rentabilidad. El éxito con la IA dependerá de un enfoque cuidadoso de la integración, con la compatibilidad del sistema y los recursos informáticos adecuados como factores clave de éxito. Una falta histórica de priorización de la inversión en tecnología de software en la fabricación está detrás de muchos desafíos de integración de empresas’, especialmente con sistemas heredados y luchas con iniciativas de IA a escala en operaciones globales,” dijo Jonathan Wu, Director de Tecnología de Smart Manufacturing de Lenovo. Impulsar la transformación habilitada para IA en la fabricación con soluciones de IA híbrida de Lenovo Lenovo Hybrid AI Advantage con soluciones NVIDIA está diseñado para ayudar a acelerar la adopción de la IA y aumentar la productividad empresarial mediante el seguimiento rápido de la IA agentic que puede razonar, planificar y tomar medidas para alcanzar los objetivos más rápido. Las soluciones de IA validadas y de pila completa permiten a los fabricantes construir e implementar rápidamente agentes de IA para una amplia gama de casos de uso de alta demanda, aumentando la productividad, la agilidad y la confianza al tiempo que aceleran la próxima ola de razonamiento de IA para la nueva era de IA agentic. Lenovo ha desarrollado una gama de servicios impulsados por IA para la industria manufacturera, que incluyen: Demostrar innovaciones de fabricación inteligente para el impacto empresarial En Hannover Messe, Lenovoows presentó recientemente Lenovo AI Knowledge Assistant, un asistente humano digital que participa en una conversación en tiempo real. Desarrollado por el Plataforma de IA agentic de Lenovola solución permite a las organizaciones personalizar rápidamente los casos de uso de la Biblioteca de IA de Lenovo y poner en práctica nuevos agentes y asistentes de IA en cuestión de semanas. La demostración fue personalizada utilizando el humano digital NVIDIA IA Plantilla y NVIDIA NIM™ microservicios corriendo en un ThinkStation Lenovo PX.  Lenovo AI Knowledge Assistant da vida a cómo las soluciones probadas y probadas de Lenovoova pueden ayudar a las empresas a poner en marcha la IA agentic personalizada más rápido, conectándose y colaborando con clientes y empleados en un nivel completamente nuevo para mejorar los resultados y las experiencias. En el evento, uno de los miembros del Programa Innovador de IA de Lenovoova, Trifork, demostrará su AI-alimentado gestión de calidad de visión para la solución de fabricación. La solución aprovecha los servicios ThinkEdge de Lenovo y Trifork Vision AI para automatizar los procesos de control de calidad, reducir los defectos y mejorar la eficiencia de la producción. Trifork Vision AI Quality Inspection está impulsada por el Lenovo Validated Design (LVD) y ofrece potentes capacidades que agilizan y aceleran el proceso de identificación de problemas de calidad del producto, lo que permite a los fabricantes evaluar rápidamente el impacto tangible de los cambios operativos en la calidad del producto, los costos y la satisfacción del cliente. Impulsada por los servidores Lenovo ThinkEdge SE360 V2 y SE455 V3 con GPU NVIDIA, la solución ofrece inferencias de alto rendimiento, inspecciones de calidad automatizadas y conocimientos prácticos a escala y con velocidad. Aprovechando el poder combinado de la visión por computadora, la computación perimetral y el análisis impulsado por IA, esta solución ofrece una detección de defectos más rápida, más precisa y totalmente automatizada, lo que impulsa una mayor eficiencia y una confiabilidad constante del producto. La solución ya está en uso en una amplia gama de aplicaciones, desde la detección de corrosión en maquinaria en alta mar hasta la detección de chips, grietas o abolladuras en productos antes de que salgan de la línea de producción y el seguimiento de bolsas a medida que se mueven a través de los sistemas aeroportuarios. Lenovo también está mostrando una demostración de su solución de automatización de almacenes impulsada por IA, actualmente operativa con ST Logistics, con sede en Singapur. La solución utiliza software impulsado por IA para proporcionar una visión general de las operaciones del almacén, con informes en tiempo real de posibles problemas para evitar paradas a gran escala. Donde anteriormente la compañía había confiado en las inspecciones manuales, la nueva solución escanea automáticamente los problemas de integración entre sistemas. Esto significaba que ST Logistics podría aumentar el procesamiento de pedidos hasta en un 40%, reducir el consumo de energía

Leer más »
Scroll al inicio