El Portal de las Tecnologías para la Innovación

Noticias

El curso Stanford GSE aborda la brecha entre la investigación edtech y la práctica del mundo real

Impartido por la Profesora Asistente Dora Demszky, Empoderar a los Educadores a través de la Tecnología del Lenguaje tiene como objetivo conectar a los creadores y maestros de edtech para crear mejores herramientas de aprendizaje. Una de las trampas más perniciosas y generalizadas de la investigación y el diseño de edtech es su baja tasa de adopción exitosa en las escuelas. Ya sea debido a una implementación inadecuada o deficiencias en las herramientas en sí, la brecha entre la investigación y la práctica puede ser grande, lo que lleva a los distritos a gastar fondos críticos en herramientas y sistemas edtech con bajos resultados de aprendizaje. Dora Demszky, profesora asistente en la Escuela de Graduados de Educación de Stanford (GSE), tiene como objetivo ayudar a abordar este problema a través de su curso Empoderar a los Educadores a través de la Tecnología del Lenguaje, que conecta a los creadores de edtech con los profesores para los que están diseñando. “Los modelos de idiomas grandes y las herramientas de IA se están volviendo más comunes en un contexto educativo, pero nadie está hablando realmente de todas las consideraciones necesarias para que estas tecnologías sean realmente útiles para los maestros, dice Demszky. “Hay mucha discusión sobre la IA en la educación, y esta clase es importantemente distinta de esos temas porque no estamos enfocados en tecnologías que se mueven alrededor del maestro, o ayudar a los maestros a navegar alrededor de los estudiantes’ uso de la IA, sino más bien en cómo podemos desarrollar herramientas que puedan apoyar a los educadores en mejorar su instrucción, y por lo tanto sus estudiantes’ aprendizaje,” dijo. Un enfoque centrado en el profesor para edtech La clase, ahora en su segundo año, tiene una combinación de 30 estudiantes de GSE y ciencias de la computación que abordan cuestiones de diseño, implementación y eficacia en edtech. A través de discusiones en clase, colaborando con educadores en ejercicio y creadores de edtech, y creando herramientas de IA propias, el objetivo final de students’ es mejorar la educación. “Cualquier mejora incremental requiere mucho trabajo reflexivo, y estamos en ese viaje en este momento,” dijo Mei Tan, MA ’23, y actual estudiante de doctorado en el GSE que estudia ciencia de datos de educación. También es asistente de enseñanza para el curso. “Esta es una clase de metodología tan única para que esté conectada con el impacto que estos métodos tendrán en el mundo, lo que sucede cuando se aplican a las restricciones del mundo real Como parte de la clase, a los estudiantes se les pide con frecuencia que creen herramientas a través de la lente de los maestros que las usarán. Buscan aportes y presentan sus diseños a los educadores. “Una de nuestras primeras tareas fue entrevistar a un maestro y yo estaba muy adelantado con todas las ideas que tenía sobre la introducción de la tecnología en la educación bilingüe. Pero después de escuchar sus comentarios, fue la primera vez que realmente consideré que los problemas que pensé que los educadores probablemente son los más prominentes con los que están lidiando,” dijo Joshua Delgadillo, un estudiante de tercer año en la clase que estudia informática, con un menor en educación. Antes de esta clase, mi tesis en torno a edtech era muy tecnológica primero y educación segunda, pero Iiandve ha estado expuesto a la importancia de poner la educación primero, si queremos que las cosas funcionen.”Josué DelgadilloJunior, Ciencias de la Computación “Una de mis conclusiones más importantes fue que algunas de las cosas en las que la IA es realmente buena, como crear una hoja de trabajo personalizada, son realmente cosas para las que un educador experimentado pensaría usar la tecnología, dijo Delgadillo. “Antes de esta clase, mi tesis sobre edtech fue muy tecnológica primero y la educación en segundo lugar, pero Iiandve estuvo expuesto a la importancia de poner la educación primero, si queremos que las cosas funcionen.” Diseñando el futuro de la educación, en colaboración Una faceta clave del curso es trabajar con los maestros para crear herramientas tecnológicas que los aumenten en lugar de automatizarlos. “Este tipo de colaboración es algo de lo que el campo ha hablado antes, pero no siempre está claro cómo abordar la creación de este diálogo con los maestros,” dijo Rebecca Li Hao, una estudiante de maestría en Diseño y Tecnología de Aprendizaje en el GSE. “Esta clase nos da una oportunidad concreta de tener eso de un lado a otro para que podamos aprender cómo aumentarlos mejor porque reemplazar a los maestros con tecnología no funciona, son demasiado importantes.” La estudiante de GSE Rebecca Li Hao presenta su proyecto a la clase. | Joleen Richards Para la mayor parte de los estudiantes’ cursos, tuvieron que diseñar una herramienta educativa que luego se presentaría a un panel de seis maestros. “Parece crítico tener maestros y creadores de edtech en la misma habitación – para personas que construyen herramientas para el uso de maestros y maestros que pueden necesitar usarlas más adelante,” dijo Eric Wilson, un maestro de ciencias de la computación de secundaria con sede en Brooklyn que se sentó en el panel. “Es genial ver que tenemos algunas de las personas más brillantes del mundo haciendo cosas para ayudar a facilitar la enseñanza.” Los proyectos incluyeron herramientas que simulaban las interacciones profesor-alumno, creaban gráficos a partir de datos y retroalimentación automatizada, entre otros usos. “Siento que obtuve una idea de lo que hay ahí fuera y que esta clase me está dando una mirada a qué herramientas podrían usar mis futuras clases,” dijo Viridiana Word, una panelista de San Diego que ha estado enseñando durante 17 años. “Es maravilloso ver tanta energía y ver cómo van a contribuir al campo.” Agregó, “puedo ofrecer mi sabiduría y experiencia, y de los estudiantes puedo obtener nuevas ideas y una pista sobre el futuro por venir.” La clase culminó en una publicación de blog coescrito por Demszky, Tan y los estudiantes que reflexionaron sobre lo que aprendieron sobre el diseño para maestros y las intersecciones

Leer más »

Bloques de construcción más pequeños e inteligentes para la futura tecnología cuántica

Los científicos de EPFL han logrado un gran avance en el diseño de matrices de resonadores, los componentes básicos que impulsan las tecnologías cuánticas. Esta innovación podría crear dispositivos cuánticos más pequeños y precisos. Los Qubits, o bits cuánticos, son conocidos principalmente por su papel en la computación cuántica, pero también se utilizan en la simulación cuántica analógica, que utiliza un sistema cuántico bien controlado para simular otro más complejo. Un simulador cuántico analógico puede ser más eficiente que una simulación por ordenador digital, de la misma manera que es más sencillo utilizar un túnel de viento para simular las leyes de la aerodinámica en lugar de resolver muchas ecuaciones complicadas para predecir el flujo de aire. La clave tanto para la computación cuántica digital como para la simulación cuántica analógica es la capacidad de dar forma al entorno con el que interactúan los qubits. Una herramienta para hacer esto de manera efectiva es una matriz de cavidades acopladas (CCA), pequeñas estructuras hechas de múltiples cavidades de microondas dispuestas en un patrón repetitivo donde cada cavidad puede interactuar con sus vecinos. Estos sistemas pueden dar a los científicos nuevas formas de diseñar y controlar sistemas cuánticos. De manera similar a los electrones en los cristales, que pueden bloquear el flujo de electricidad a ciertas frecuencias, dando lugar a semiconductores y aislantes, en los CCA, la luz, en forma de fotones, solo puede propagarse a longitudes de onda específicas. Al adaptar cuidadosamente la geometría de estos resonadores, los científicos pueden seleccionar con precisión las longitudes de onda a las que pueden pasar los fotones y aquellas a las que pueden atravesar. Un equipo de EPFL, dirigido por el profesor Pasquale Scarlino, jefe de la Laboratorio de Circuitos Cuánticos Híbridos, en colaboración con el Dr. Marco Scigliuzzo de la Laboratorio de Fotónica y Mediciones Cuánticas en EPFL, y el profesor Oded Zilberberg de la Universidad de Konstanz, ha desarrollado un diseño innovador para un CCA que utiliza nitruro de niobio (NbN), un superconductor que se basa en una propiedad de material avanzada llamada alta inductancia cinética, en la que el laboratorio Scarlinoiss es un experto líder. Aprovechando la alta inductancia cinética, Scarlino y su equipo han demostrado una nueva clase de CCA donde cada cavidad está altamente miniaturizada y el trastorno no deseado en las frecuencias resonantes de todas las cavidades se mantiene al mínimo. Ambas características son críticas para lograr las funcionalidades requeridas en la computación cuántica futura y la simulación cuántica. La investigación, publicado en Naturaleza Comunicaciones, demostró su capacidad para crear una matriz compacta de hasta 100 cavidades de alta calidad. Mostraron cómo funcionan estas estructuras y las usaron para imitar un material llamado aislante topológico fotónico, que puede guiar la luz a lo largo de sus bordes de una manera muy controlada e inusual. “Ya estamos construyendo sobre este trabajo estudiando átomos artificiales acoplados a esta arquitectura,” dice Vincent Jouanny, el primer autor de los artículos. “Nuestro enfoque muestra que la compacidad y la precisión no son objetivos opuestos, sino herramientas complementarias para avanzar en la tecnología de dispositivos cuánticos,” dice Scarlino. “Este trabajo demuestra cómo el diseño reflexivo puede equilibrar la compacidad, la alta impedancia y el bajo desorden, lo que resulta en una plataforma versátil para matrices de cavidades acopladas que abre nuevas oportunidades para simulaciones cuánticas avanzadas y la exploración de fenómenos cuánticos Al aprovechar las propiedades únicas del nitruro de niobio, los investigadores de EPFL han abierto nuevas posibilidades para explorar sistemas cuánticos complejos y desarrollar plataformas escalables para futuras innovaciones. Este avance en el diseño de matriz de cavidades acopladas representa un paso significativo hacia dispositivos cuánticos más compactos, eficientes y confiables. EPFL News. S. P. Traducido al español

Leer más »

What keeps alternating current in sync when large power generators go offline?

Traditional large-scale power generators ensure a stable frequency of alternating current in the European power grid. Now, researchers from ETH Zurich have found a solution so that wind and solar power plants can take over – paving the way for the energy transition. In brief In the future, Europe is to be dominantly powered by renewable energy. The expansion of wind and solar power capacity and the provision of sufficient power in winter are just two of the challenges that this presents. The general public is largely unaware of the accompanying fundamental changes in the power grid: whereas the generators of traditional large-scale power stations – that is, of hydroelectric, coal-fired and nuclear power stations – previously kept the grid stable with their simple and sluggish mechanisms, there is now a need for electronically controlled converters. Protecting these converters from grid malfunctions such as voltage dips and short circuits is by no means an easy undertaking. Now, the group led by Florian Dörfler, Professor of Complex Systems Control at ETH Zurich, has provided a solution. First of all, it is important to know that the electricity flowing through Europe’s power grids is based on alternating current technology, meaning that the direction of the current reverses every hundredth of a second. This frequency is established by the generators in large power stations, which are synchronised with one another via the grid. On the other hand, wind and solar power plants produce direct current, which has to be converted into alternating current by converters. Today’s converters adapt to the grid frequency and inject their power in sync with it. This approach works as long as there are enough large power plants with turbines operating in the grid. However, if an increasing number of coal-fired and nuclear power stations go offline in the future, these timing generators will be lost – and a replacement will be needed. “You can only adapt to a frequency if one has been established in the first place.”Florian Dörfler Radical protective mechanism In the future, there will be a need for grid-forming converters – that is, converters that do not simply follow a frequency, as is the case today, but rather actively help to stabilise it. Until now, engineers did not have a viable solution for how these grid-forming converters could continue to operate in the event of a short circuit or a voltage dip in the power grid while also being protected against overloading. Today’s converters have a protective mechanism which ensures that they disconnect from the grid in the event of a grid malfunction. This protection is necessary because, if there were to be a large voltage dip in the power grid, the converter would attempt to compensate for the missing voltage by injecting a high current. This would overload the converter and damage it irreparably in the space of milliseconds. With new algorithms for intelligent control, Dörfler’s group has now succeeded in continuing to operate the grid-forming converters even in the event of a grid malfunction. A rigorous shutdown is no longer necessary. This approach allows a wind or solar power plant to remain online, continue supplying power, and therefore contribute to stabilising the grid frequency even in the event of a grid malfunction. Accordingly, the system can assume the role currently performed by traditional large-scale power generators. The converter’s controller measures the grid parameters continuously and adjusts the converter in real time via a feedback loop. ETH Zurich has applied for a patent on the new algorithms. Master’s theses in industry The initial idea came from one of Dörfler’s Master’s students, who is now doing a doctorate at ETH: Maitraya Desai realised that, in the event of grid malfunctions, it is best to deal with the grid voltage and the frequency of the alternating current separately. As it is difficult to maintain the voltage in the event of a grid malfunction, the new control algorithm focuses on the frequency and attempts to keep it stable in the grid under all circumstances. At the same time, the algorithm limits the current to avoid overloading the converter – while allowing the voltage to vary freely. After first carrying out calculations, the ETH researchers checked these calculations in computer simulations and finally in a small test system in the lab. As the improvements relate purely to software, there is no need for industry to build demonstration systems. Rather, it can incorporate the algorithms directly into its control software. Dörfler is planning to work closely with interested industry partners to this end. For example, the aim is for ETH students to do their Master’s theses at industrial companies, thereby helping to implement the new approach in industrial partners’ products. “We and others have been researching this field for 15 years,” says Dörfler. “Our approach is currently the best way of solving the problem.” The new algorithms contribute to the stability of the power grid, reduce the risk of blackouts and pave the way for a transition from large, centralised power generators to a decentralised, flexible system of smaller power stations supplying renewable energy. Accordingly, they could represent a key building block in the energy transition. ETH Zürich News.

Leer más »

¿Qué mantiene la corriente alterna sincronizada cuando los grandes generadores de energía se desconectan?

Los generadores de energía tradicionales a gran escala garantizan una frecuencia estable de corriente alterna en la red eléctrica europea. Ahora, los investigadores de ETH Zurich han encontrado una solución para que las plantas de energía eólica y solar puedan hacerse cargo de – allanando el camino para la transición energética. En resumen En el futuro, Europa se alimentará predominantemente de energías renovables. La expansión de la capacidad eólica y solar, y el suministro de energía suficiente en invierno, son solo dos de los desafíos que esto presenta. El público en general desconoce en gran medida los cambios fundamentales que esto conlleva en la red eléctrica: mientras que los generadores de las centrales eléctricas tradicionales a gran escala (es decir, hidroeléctricas, de carbón y nucleares) antes mantenían la red estable con sus mecanismos simples y lentos, ahora se necesitan convertidores controlados electrónicamente. Proteger estos convertidores de fallos de la red, como caídas de tensión y cortocircuitos, no es tarea fácil. Ahora, el grupo dirigido por Florian Dörfler, profesor de Control de Sistemas Complejos en la ETH de Zúrich, ha aportado una solución. En primer lugar, es importante saber que la electricidad que circula por las redes eléctricas europeas se basa en tecnología de corriente alterna, lo que significa que la dirección de la corriente se invierte cada centésima de segundo. Esta frecuencia la establecen los generadores de las grandes centrales eléctricas, que se sincronizan entre sí a través de la red. Por otro lado, las centrales eólicas y solares producen corriente continua, que debe ser convertida en corriente alterna mediante convertidores. Los convertidores actuales se adaptan a la frecuencia de la red e inyectan su energía sincronizada con ella. Este enfoque funciona mientras haya suficientes centrales eléctricas grandes con turbinas operando en la red. Sin embargo, si un número creciente de centrales eléctricas de carbón y nucleares dejan de funcionar en el futuro, estos generadores de sincronización se perderán y será necesario reemplazarlos. “Solo es posible adaptarse a una frecuencia si ya se ha establecido una previamente”.Florian Dörfler Mecanismo de protección radical En el futuro, se necesitarán convertidores de red, es decir, convertidores que no se limiten a seguir una frecuencia, como ocurre actualmente, sino que contribuyan activamente a estabilizarla. Hasta ahora, los ingenieros no contaban con una solución viable para que estos convertidores de red pudieran seguir funcionando en caso de cortocircuito o caída de tensión en la red eléctrica, a la vez que estuvieran protegidos contra sobrecargas. Los convertidores actuales cuentan con un mecanismo de protección que garantiza su desconexión de la red en caso de fallo. Esta protección es necesaria porque, si se produjera una caída de tensión importante en la red eléctrica, el convertidor intentaría compensar la falta inyectando una corriente elevada. Esto sobrecargaría el convertidor y lo dañaría irreparablemente en cuestión de milisegundos. Gracias a nuevos algoritmos de control inteligente, el grupo de Dörfler ha logrado que los convertidores de red sigan funcionando incluso en caso de fallo de la red. Ya no es necesario un apagado riguroso. Este enfoque permite que una planta eólica o solar permanezca en línea, siga suministrando energía y, por lo tanto, contribuya a estabilizar la frecuencia de la red incluso en caso de fallo. De esta manera, el sistema puede asumir la función que actualmente desempeñan los generadores de energía tradicionales a gran escala. El controlador del convertidor mide continuamente los parámetros de la red y lo ajusta en tiempo real mediante un bucle de retroalimentación. La ETH de Zúrich ha solicitado una patente para los nuevos algoritmos. Tesis de maestría en la industria La idea inicial surgió de Maitraya Desai, estudiante de maestría de Dörfler y actual doctorado en la ETH. Desai se dio cuenta de que, en caso de fallos en la red, es mejor gestionar la tensión de la red y la frecuencia de la corriente alterna por separado. Dado que es difícil mantener la tensión en caso de fallo en la red, el nuevo algoritmo de control se centra en la frecuencia e intenta mantenerla estable en la red en cualquier circunstancia. Al mismo tiempo, el algoritmo limita la corriente para evitar sobrecargar el convertidor, permitiendo al mismo tiempo que la tensión varíe libremente. Tras realizar los cálculos, los investigadores de la ETH los comprobaron en simulaciones por ordenador y, finalmente, en un pequeño sistema de prueba en el laboratorio. Dado que las mejoras se limitan exclusivamente al software, no es necesario que la industria construya sistemas de demostración. En su lugar, puede incorporar los algoritmos directamente en su software de control. Dörfler planea colaborar estrechamente con socios industriales interesados ​​para este fin. Por ejemplo, el objetivo es que los estudiantes de la ETH realicen sus tesis de máster en empresas industriales, contribuyendo así a la implementación del nuevo enfoque en los productos de sus socios. “Nosotros y otros llevamos 15 años investigando este campo”, afirma Dörfler. “Nuestro enfoque es actualmente la mejor solución para el problema”. Los nuevos algoritmos contribuyen a la estabilidad de la red eléctrica, reducen el riesgo de apagones y allanan el camino para la transición de grandes generadores de energía centralizados a un sistema descentralizado y flexible de centrales eléctricas más pequeñas que suministran energía renovable. Por consiguiente, podrían representar un elemento clave en la transición energética. ETH Zürich. F. B. Traducido al español

Leer más »

Índice de amenazas IBM X-Force 2025: el robo de credenciales a gran escala se intensifica y los actores de amenazas recurren a tácticas más sigilosas.

IBM (NYSE:  IBM ) publicó hoy el  Índice de Inteligencia de Amenazas X-Force 2025,  que destaca que los ciberdelincuentes siguieron recurriendo a tácticas más sigilosas, con un aumento repentino del robo de credenciales de perfil bajo, mientras que los ataques de ransomware a empresas disminuyeron.   IBM X-Force observó un aumento del 84 % en los correos electrónicos enviados por ladrones de información en 2024, en comparación con el año anterior, un método del que dependían en gran medida los cibercriminales para escalar los ataques de identidad. El informe de 2025 rastrea tendencias y patrones de ataque nuevos y existentes, basándose en interacciones de respuesta a incidentes, la web oscura y otras fuentes de inteligencia sobre amenazas. Algunas conclusiones clave del informe de 2025 incluyen: «Los ciberdelincuentes suelen entrar sin dañar nada, aprovechando las brechas de identidad que surgen de los complejos entornos de nube híbrida que ofrecen a los atacantes múltiples puntos de acceso», afirmó Mark Hughes , Socio Director Global de Servicios de Ciberseguridad de IBM. «Las empresas deben abandonar la mentalidad de prevención improvisada y centrarse en medidas proactivas como la modernización de la gestión de la autenticación, la eliminación de vulnerabilidades en la autenticación multifactor y la búsqueda de amenazas en tiempo real para descubrir amenazas ocultas antes de que expongan datos confidenciales». Los desafíos de la aplicación de parches exponen a los sectores de infraestructura crítica a amenazas sofisticadasLa dependencia de la tecnología heredada y los ciclos lentos de aplicación de parches resultan ser un desafío permanente para las organizaciones de infraestructura crítica, ya que los ciberdelincuentes explotaron vulnerabilidades en más de una cuarta parte de los incidentes a los que IBM X-Force respondió en este sector el año pasado. Al revisar las vulnerabilidades y exposiciones comunes (CVE) más mencionadas en los foros de la dark web, IBM X-Force descubrió que cuatro de las diez principales se han vinculado a sofisticados grupos de actores de amenazas, incluyendo adversarios de estados-nación, lo que aumenta el riesgo de interrupción, espionaje y extorsión financiera. Los códigos de explotación para estas CVE se comercializaron abiertamente en numerosos foros, lo que impulsó un mercado creciente de ataques contra redes eléctricas, redes sanitarias y sistemas industriales. Este intercambio de información entre adversarios con motivaciones financieras y adversarios de estados-nación resalta la creciente necesidad de monitorizar la dark web para fundamentar las estrategias de gestión de parches y detectar posibles amenazas antes de que sean explotadas.  El robo automatizado de credenciales genera una reacción en cadenaEn 2024, IBM X-Force observó un aumento en los correos electrónicos de phishing que entregaban ladrones de información y los primeros datos para 2025 revelan un aumento aún mayor del 180 % en comparación con 2023. Esta tendencia ascendente que impulsa las posteriores apropiaciones de cuentas puede atribuirse a los atacantes que aprovechan la IA para crear correos electrónicos de phishing a escala. El phishing de credenciales y los robos de información han hecho que los ataques de identidad sean económicos, escalables y altamente rentables para los actores de amenazas. Los robos de información permiten la exfiltración rápida de datos, reduciendo el tiempo que tardan en llegar al objetivo y dejando poco residuo forense. En 2024, solo los cinco principales robos de información tenían más de ocho millones de anuncios en la dark web, y cada anuncio puede contener cientos de credenciales. Los actores de amenazas también venden kits de phishing de adversario en el medio (AITM) y servicios de ataque AITM personalizados en la dark web para eludir la autenticación multifactor (MFA). La disponibilidad desenfrenada de credenciales comprometidas y métodos de evasión de MFA indica una economía de alta demanda de acceso no autorizado que no muestra signos de desaceleración. Los operadores de ransomware cambian a modelos de menor riesgoSi bien el ransomware representó la mayor parte de los casos de malware en 2024 con un 28%, IBM X-Force observó una reducción en los incidentes de ransomware en general en comparación con el año anterior, y los ataques de identidad aumentaron para llenar el vacío. Las iniciativas internacionales de desmantelamiento están impulsando a los actores de ransomware a reestructurar modelos de alto riesgo hacia operaciones más distribuidas y de menor riesgo. Por ejemplo, IBM X-Force observó que familias de malware consolidadas, como ITG23 (también conocidas como Wizard Spider, Trickbot Group) e ITG26 (QakBot, Pikabot), interrumpían sus operaciones por completo o recurrían a otro malware, incluyendo familias nuevas y de corta duración, a medida que los grupos de ciberdelincuentes intentaban encontrar sustitutos para las botnets desmanteladas el año pasado. Otros hallazgos del informe de 2025 incluyen: Recursos adicionales IBM News. Traducido al español

Leer más »

3 nuevas formas en que los agentes de IA pueden ayudarlo a hacer aún más

La palabra “agent” podría recordarnos a un humano que planea viajar o tal vez a un espía británico bien vestido.  Pero en el mundo de la IA en rápida evolución, el término tiene un significado completamente nuevo que está remodelando nuestra interacción con la tecnología y la automatización.   A medida que la tecnología continúa avanzando, los nuevos agentes de IA de Microsoft presentados en las últimas semanas pueden ayudar a las personas todos los días con cosas como investigación, ciberseguridad y más.   Lo primero es lo primero: ¿Qué es un agente de IA?   Imagine tener un asistente personal que no solo responda a los comandos, sino que se anticipe a sus necesidades, realice tareas complejas y siga aprendiendo de cada interacción —, lo que significa que realmente mejora con el tiempo.   Agentes de IA analice su entorno, tome decisiones y tome medidas, aborde tareas con usted o en su nombre en función de sus objetivos y barandillas. Eso significa que en lugar de realizar tareas repetitivas, puede ahorrar tiempo y centrarse en un trabajo más creativo y estratégico.   Agentes que usan el razonamiento para ayudarte a hacer más   Dos nuevos agentes de razonamiento anunciado a finales de marzo para Microsoft 365 Copilot puede ayudarle a ser más productivo en la oficina. Nombrado Investigador y Analista, ambos pueden analizar de forma segura sus datos de trabajo — correos electrónicos, reuniones, archivos, chats y más — y la web para ofrecer experiencia altamente calificada a pedido.  Investigador le ayuda a abordar la investigación compleja y de varios pasos en el trabajo. Puede crear una estrategia de marketing detallada basada en sus datos de trabajo e información más amplia de la web, identificar oportunidades para un nuevo producto basado en tendencias emergentes y datos internos, o crear un informe trimestral completo para una revisión del cliente. También puede integrar datos de fuentes externas como Salesforce, ServiceNow y Confluence directamente en Microsoft 365 Copilot.  Researcher combina el modelo de investigación profunda de OpenAIais con la orquestación avanzada de Microsoft 365 Copiloto y las capacidades de búsqueda profunda.  Analista, construido sobre el modelo de razonamiento o3-mini de OpenAIays, piensa como un científico de datos virtual. Puede tomar datos sin procesar dispersos en múltiples hojas de cálculo para hacer cosas como pronosticar cuánta demanda habrá para un nuevo producto o crear una visualización de los patrones de compra de los clientes.   Agentes que ayudan a automatizar las tareas de ciberseguridad  Otros nuevos agentes pueden ayudar a las organizaciones a defenderse contra las amenazas cibernéticas, manejando ciertas tareas de seguridad para ayudar a los equipos humanos a ser más eficientes.   Estos agentes24 De marzo, introducido, están diseñados para ayudar de forma autónoma con áreas críticas como phishing, seguridad de datos y gestión de identidad.   Por ejemplo, un nuevo agente de triaje de phishing en Microsoft Security Copilot puede manejar alertas de phishing y ataques cibernéticos de rutina, liberando a los equipos de ciberseguridad humana para que se centren en amenazas cibernéticas más complejas y medidas de seguridad proactivas.  Y los nuevos Alert Triage Agents en Microsoft Purview puede clasificar la prevención de pérdida de datos y las alertas de riesgo internas, priorizar incidentes críticos y mejorar continuamente la precisión en función de los comentarios del administrador.  Agentes para ayudar a los desarrolladores a construir e implementar IA de forma segura  Los agentes también están dando a los desarrolladores nuevas opciones.   Se puede acceder a dos nuevas en Azure AI Foundry —, una plataforma donde los desarrolladores y las organizaciones crean, implementan y administran aplicaciones de IA, proporcionando la infraestructura que los desarrolladores necesitan para crear agentes inteligentes a gran escala.   Agentes de datos de Microsoft Fabric permita a los desarrolladores que utilizan Azure AI Agent Service en Azure AI Foundry conectar agentes personalizados y conversacionales creados en Microsoft Fabric. Estos agentes de datos pueden razonar y desbloquear información de varias fuentes para tomar mejores decisiones basadas en datos.  Por ejemplo, NTT DATA, una empresa japonesa de TI y consultoría, está utilizando agentes de datos en Microsoft Fabric para tener conversaciones con HR y datos de operaciones administrativas para comprender mejor lo que está sucediendo en la organización.  Y lo nuevo Agente de Equipo Rojo de IA, ahora en la vista previa pública, sondea sistemáticamente los modelos de IA para descubrir los riesgos de seguridad. Genera informes completos y rastrea las mejoras a lo largo del tiempo, creando un ecosistema de pruebas de seguridad de IA que evoluciona junto con su sistema.   Obtenga más información sobre lo último en agentes en Microsoft Build 2025 — el registro ya está abierto.  Image se creó utilizando Microsoft Designer, una aplicación de diseño gráfico impulsada por IA. Microsoft Blog. Traducido al español

Leer más »

¿Qué es MLPerf? Entender el punto de referencia superior de AI

Un conjunto en constante evolución de pruebas de IA en el mundo real empuja a los expertos de Intel a aumentar el rendimiento, nivelar el campo de juego y hacer que la IA sea más accesible para todos. MLPerf es el conjunto de puntos de referencia de IA de los que has oído hablar, pero es posible que no (todavía) comprendas por completo. Si bien no pude encontrar una definición inequívoca de la palabra en sí misma –, se analogizó como “SPEC para ML” en su mayo de 2018 debut público – mi práctico asistente de IA tiene una respuesta segura. Se lee: “El nombre ‘MLPerf’ es un acrónimo derivado de ‘ML’ para el aprendizaje automático y ‘Perf’ para el rendimiento.” Tiene más que decir: “Si bien no hay una historia pública detallada sobre el proceso de nombramiento, el nombre en sí es bastante descriptivo y probablemente fue elegido por su representación directa del propósito de benchmarks’ (Solo el tipo de respuesta de apoyo que esperarías de una IA construida y refinada por investigadores de IA) Los resultados reales ilustran el punto: Solo la semana pasada», Intel continuó su ejecución como el único proveedor que envió los resultados de la CPU del servidor a MLPerf. Estos incluyeron el rendimiento de tareas comunes de IA como inspección de imágenes y análisis de información utilizando procesadores Intel® Xeon® 6. Las Personas y Procesos Detrás de los Playoffs de IA “MLPerf es el punto de referencia No. 1 para la IA en este momento,” dice Ramesh Chukka, quien trabaja en el Centro de datos Intelligs y el grupo de software de IA. un hombre con el pelo corto y oscuro, barba y gafas con una camisa estilo polo, mira a la cámaraRamesh Chukka es gerente de ingeniería de software de IA en el Centro de Datos de Intel y el grupo de software de IA y miembro de la junta del consorcio MLCommons. Chukka representa a Intel en la junta de MLCommons, un consorcio que se formó a finales de 2020 para expandir el esfuerzo inicial de MLPerf para “avanzar en el desarrollo y acceso a los últimos conjuntos de datos y modelos de IA y aprendizaje automático, mejores prácticas, puntos de referencia y métricas.” MLPerf se refiere a todos los puntos de referencia, que “evolucionan bastante rápido, como lo hace la tecnología,” Chukka dice, cumpliendo esa misión para avanzar en el campo con “creación rápida de prototipos de nuevas técnicas de IA.” Cada punto de referencia mide qué tan rápido se puede completar un trabajo de IA en particular – dado un nivel establecido de calidad –. Los puntos de referencia se dividen en dos categorías principales: capacitación, donde los modelos de IA se construyen utilizando datos; e inferencia, donde los modelos de IA se ejecutan como aplicaciones. Para enmarcarlo con un modelo de lenguaje grande, también conocido como LLM: El entrenamiento es donde el LLM aprende de un corpus de información, y la inferencia ocurre cada vez que le pides que haga algo por ti. MLCommons publica dos conjuntos de resultados de referencia al año para cada una de las dos categorías. Por ejemplo, Intel compartió más recientemente resultados de la formación en junio pasado y resultados de inferencia este mes. Los expertos de Intel AI han contribuido a MLPerf (y por lo tanto MLCommons) desde el primer día. La participación de Intel siempre ha sido doble: ayudar a dar forma y evolucionar todo el esfuerzo, al tiempo que compila y aporta resultados de referencia utilizando procesadores, aceleradores y soluciones Intel. Los Problemas MLPerf Benchmarks Resuelven Los modelos de IA son programas complicados, y una amplia y creciente variedad de computadoras pueden ejecutarlos. Los puntos de referencia de MLPerf están diseñados para permitir mejores comparaciones de esas computadoras al tiempo que empujan a los investigadores y las empresas a promover el estado de la técnica. Cada punto de referencia está destinado a ser lo más representativo posible del mundo real, y los resultados aterrizan en una de dos divisiones. La división “closed” controla el modelo AI y la pila de software para proporcionar las mejores comparaciones posibles de hardware a hardware. En otras palabras, cada sistema diferente utiliza la misma aplicación para lograr el mismo resultado (por ejemplo, una medida de precisión para el procesamiento del lenguaje natural). La división “open” permite la innovación — cada sistema logra el mismo resultado deseado, pero puede empujar el sobre de rendimiento en la medida de lo posible, sin embargo. Lo que es admirable de MLPerf es que todo es compartido y los puntos de referencia son de código abierto. Los resultados deben ser reproducibles — ningún misterio puede permanecer. Esta apertura permite comparaciones más dinámicas más allá de la velocidad bruta lado a lado, como el rendimiento por potencia o el costo. Cómo Funciona y Evoluciona MLPerf Como mencionó Chukka, MLPerf conserva su prominencia en parte al evolucionar continuamente y agregar nuevos puntos de referencia. La forma en que ocurre ese proceso es en gran medida a través del debate abierto y la discusión entre la comunidad MLCommons, que abarca grandes empresas, nuevas empresas y la academia. Se proponen y debaten nuevos puntos de referencia, y luego los aprobados necesitan un conjunto de datos abierto para la capacitación — que puede existir o no. Los colaboradores se ofrecen como voluntarios para formar un equipo y construir el punto de referencia, identificar o recopilar datos, y establecer un cronograma para el lanzamiento de las evaluaciones comparativas. Cualquier empresa que quiera publicar resultados debe cumplir con una fecha límite para el próximo lanzamiento. Si se lo pierden, esperan la siguiente ronda. Lo que el Mundo Obtiene de una IA Más Rápida y Eficiente Si bien tener más personas en el mundo resolviendo más problemas usando semiconductores tiene un beneficio obvio para Intel (sin mencionar más grist para la fábrica de ventas y marketing), hay otros beneficios para la participación de Intel en MLPerf. Intel siempre está contribuyendo a marcos de código abierto para IA,

Leer más »

Cinco nuevos juegos llegan a Apple Arcade en mayo, incluido WHAT THE CLASH?, una genial incorporación a la galardonada serie WHAT THE GAMES?

Una divertida selección de cinco juegos llega a Apple Arcade el 1 de mayo, incluido WHAT THE CLASH?, un peculiar y trepidante juego multijugador que combina divertidas actividades como ping pong, tiro con arco, carreras y pilla-pilla. Disponible exclusivamente en Apple Arcade, WHAT THE CLASH? es la nueva creación del desarrollador independiente Triband, conocido por su premiado juego de comedia y carreras WHAT THE CAR?, que se proclamó mejor juego móvil en los D.I.C.E. Awards 2024. Los usuarios también podrán disfrutar de with My Buddy, una entrañable simulación donde estrecharán lazos y cuidarán de cachorros y gatitos virtuales; LEGO Friends: Heartlake Rush+, un vertiginoso juego de carreras sin fin; el popular juego de sopa de letras Words of Wonders: Search+; y SUMI SUMI : Matching Puzzle+, un cautivador juego de combinaciones con los queridos personajes de San-X, como Rilakkuma y Sumikko Gurashi. Estos nuevos juegos se suman al exitoso catálogo de Arcade con más de 200 títulos, todos sin anuncios ni compras dentro de la aplicación. WHAT THE CLASH? by TribandJuega en solitario o reta a tus amigos a emocionantes batallas uno contra uno en este divertido juego para animar fiestas y reuniones. Los jugadores desbloquean ciertas cartas modificadoras para formar combinaciones absurdas como ‘jiráfula’, ‘tiro con arco a la tostada’, ‘tenis pegajoso’, ‘ordeñar al pez’ y muchas más. Subirán en las tablas de clasificación, participarán en torneos o buscarán nuevas combinaciones de cartas para que cada partida sea una sorpresa caótica y desternillante, repleta de giros inesperados. Con controles táctiles sencillos, todos jugarán como ‘The Hand’, una mano carismática y elástica con piernas que puede personalizarse con cientos de combinaciones de objetos desbloqueables, como parches para los ojos, vestidos y pendientes. Los competidores deberán superar y hacer reír a sus oponentes mientras se enfrentan mano a mano en disparatados combates con sus familiares y amigos. with My Buddy by Neilo Inc.Los amantes de los animales se enamorarán de with My Buddy, un adorable juego en el que estrecharán lazos con una variedad de perros y gatos, cada uno con su propio aspecto y personalidad. Podrán ver cómo crecen sus mascotas, cuidándolas en cada etapa de su vida y vistiéndolas con originales atuendos que reflejen su estilo personal. Con la posibilidad de ambientar los espacios de sus mascotas e interactuar con ellas en cualquier momento y lugar, este juego materializa la alegría que aportan los animales de compañía. LEGO Friends Heartlake Rush+ de StoryToysCompite en carreras por Heartlake City con los LEGO Friends y sus mascotas en esta colorida y vertiginosa aventura. Los jugadores pueden ponerse al volante como Aliya, Autumn, Nova, Leo, Liann y otros, y personalizar sus bólidos con colores, pegatinas, llantas, accesorios y estelas. Mientras recorren las calles bulliciosas a toda velocidad, deberán esquivar obstáculos y recoger tesoros para completar emocionantes misiones y obtener fantásticas recompensas. Words of Wonders: Search+ de Fugo GamesEn este popular juego de sopa de letras, los jugadores deben buscar palabras ocultas en el tablero mientras exploran lugares emblemáticos para descubrir los secretos del mundo. A medida que avancen por los niveles temáticos, encontrarán nuevas referencias, pondrán a prueba sus conocimientos y trazarán estrategias para llegar lejos mientras desvelan los enigmas ocultos tras las palabras. SUMI SUMI : Matching Puzzle+ de ImagineerCon compañeros populares como Rilakkuma y Sumikko Gurashi del estudio japonés de creación de personajes San-X, este juego transporta a los usuarios al encantador mundo de los rompecabezas kawaii. Con una mecánica sencilla que permite emparejar con un toque, una jugabilidad envolvente y relajante y sus esmerados mapas, SUMI SUMI : Matching Puzzle+ ofrece la combinación perfecta de estrategia y diversión para cualquiera que busque disfrutar de un adorable reto. Este mes, los jugadores también podrán disfrutar de actualizaciones de contenido en sus juegos favoritos de Apple Arcade, disponibles en el iPhone, iPad, Mac, Apple TV y Apple Vision Pro, incluidos Hello Kitty Island Adventure, PGA TOUR Pro Golf y WHAT THE CAR?. Este mes también habrá actualizaciones en juegos tan populares como Talking Tom Blast Park, Tomb of the Mask+, Three Kingdoms HEROES, Drive Ahead! Carcade, Ridiculous Fishing EX, A Slight Chance of Sawblades+, Skate City: New York y muchos más. Precio y disponibilidad Apple News. Traducido al español

Leer más »

Los verificadores de seguridad de IBM encabezan un nuevo punto de referencia de IA

Granite Guardian se eleva a la cima de GuardBench, la primera medida independiente de qué tan bien los modelos de barandilla pueden detectar contenido dañino y alucinado, así como los intentos de ‘jailbreak’ controles de seguridad LLM. El uso de modelos de IA puede conllevar riesgos, pero la IA también se está volviendo más inteligente al marcarlos y maniobrar a su alrededor. Cuando IBM Research lanzó sus modelos Granite Guardian el año pasado, el equipo los consideró las herramientas más poderosas para detectar un amplio espectro de riesgos asociados IA generativa. Ahora, el primer punto de referencia para evaluar de forma independiente los llamados modelos AI “storerail” tiene Granite Guardian liderando el paquete. IBM Modelos Granite Guardian mantenga seis de los 10 mejores lugares en el nuevo Tabla de clasificación de GuardBench, la primera medida de terceros de qué tan bien los clasificadores de IA pueden marcar indicaciones dañinas o maliciosas y respuestas generadas por LLM. Los tres mejores modelos — Granite Guardian 3.1 8B, Granite Guardian 3.0 8B y Granite Guardian 3.2 5B — también se han adoptado públicamente, con casi 36,000 descargas en Hugging Face, el centro de modelos de IA de código abierto. Creado por investigadores de la Comisión Europea para el Centro Común de Investigación, GuardBench se compone de 40 conjuntos de datos, incluidos cinco que son completamente nuevos. Además de ser el primer punto de referencia independiente para probar la seguridad de la IA, es el primero en extender las preguntas de prueba más allá del Inglés, con pruebas en francés, alemán, italiano y español. Granite Guardian ya se había distinguido en una variedad de conjuntos de datos públicos internamente. Los resultados de GuardBench proporcionan una confirmación adicional de las capacidades de models’, incluso en idiomas en los que los modelos no habían sido entrenados explícitamente. “Entrenamos a Granite Guardian solo con datos en inglés,” dijo Prasanna Sattigeri, investigadora de IBM que dirigió el proyecto. “El hecho de que lo hiciéramos tan bien muestra que teníamos un fuerte LLM multilingüe de granito para empezar.” Los cuatro modelos principales de Granite Guardian tuvieron puntajes de 86% y 85% en los conjuntos de datos de Guardian Benchics 40. Por el contrario, Nvidia y Meta, las únicas otras compañías que rompieron el top 10, tenían modelos de barandilla que obtuvieron un 82%, 80%, 78% y 76%. Investigadores desvelados GuardBench en noviembre pasado en EMNLP, una conferencia de procesamiento de lenguaje natural superior. Debido a que su artículo salió antes de que IBM lanzara sus modelos Granite Guardian, la tabla de clasificación de GuardBench que se puso en marcha la semana pasada fue la primera validación pública de los modelos de IBM. “No nos sorprendió, pero fue bueno ver qué tan bien se generalizaron y se desempeñaron en los puntos de referencia en los que no los habíamos probado,” dijo el investigador de IBM Inkit Padhi, quien formó parte del equipo que desarrolló Granite Guardian. Una solución integral Granite Guardian fue diseñado para funcionar con cualquier LLM, independientemente de si sus pesos eran abiertos o propietarios. Los modelos también fueron entrenados bajo IBM Atlas de riesgo de IA para marcar contenido socialmente sesgado, lenguaje odioso, abusivo o profano (HAP), así como cualquier intento de los usuarios de ‘jailbreak,’ o bypass, los controles de seguridad de LLMm. A diferencia de muchos otros modelos de barandillas, Granite Guardian también fue entrenado para detectar ‘respuestas alucinadas que podrían contener información incorrecta o engañosa, incluso en generación aumentada por recuperación (RAG) aplicaciones. Los modelos pueden igualar el rendimiento de los detectores de alucinaciones especializados y personalizarse para otras dimensiones de riesgo, con la indicación de construir su propio detector. “No hay otro modelo de guardia único que sea tan completo en cuanto a riesgos y daños,” dijo el compañero de IBM Kush Varshney en LinkedIn. El equipo atribuye gran parte de las habilidades de Granite Guardian a la calidad de sus datos de entrenamiento. Los investigadores contrataron a personas de diversos orígenes para etiquetar ejemplos de contenido no deseado. También incluyeron datos sintéticos generado durante el interno rojo-teaming ejercicios en modelos de lenguaje Granite más antiguos. La velocidad es uno de los factores decisivos para que los modelos de barandilla tengan éxito. Filtrar contenido no deseado sobre la marcha, cuando un LLM puede estar generando millones de palabras, puede agregar retrasos adicionales que los usuarios pueden no estar dispuestos a tolerar. Aquí, la serie Granite Guardian también brilla. Los investigadores de IBM desarrollaron varias variaciones ligeras para dar a los usuarios más flexibilidad. Filtros especializados para Detección de HAP solo fueron lanzados a principios de este año. Investigadores también reducido un modelo Granite Guardian 8B a 5B identificando y podando capas redundantes. Esta intervención aceleró la inferencia 1,4 veces sin ninguna pérdida de precisión. El modelo 5B (actualmente #3 en GuardBench) también introdujo nuevas características, incluida la capacidad de marcar comentarios dañinos en conversaciones de varias vueltas y verbalizar su nivel de certeza en sus respuestas. El Colección Granite Guardian está disponible en Hugging Face bajo una licencia Apache 2.0 y a través de IBM watsonx Plataforma de IA. Las últimas versiones cuantificadas de los modelos también son disponible en Hugging Face. IBM News. Traducido al español

Leer más »
Scroll al inicio