El Portal de las Tecnologías para la Innovación

Noticias

Capacitación de LLM para autodesintoxicar su idioma

Un nuevo método del MIT-IBM Watson AI Lab ayuda a los modelos de lenguaje grande a dirigir sus propias respuestas hacia resultados más seguros, más éticos y alineados con el valor. A medida que maduramos desde la infancia, nuestro vocabulario — y las formas en que lo usamos — crecen, y nuestras experiencias se vuelven más ricas, lo que nos permite pensar, razonar e interactuar con otros con especificidad e intención. En consecuencia, nuestras elecciones de palabras evolucionan para alinearse con nuestros valores personales, ética, normas culturales y puntos de vista. Con el tiempo, la mayoría de nosotros desarrollamos una guía interna “que nos permite aprender el contexto detrás de la conversación; también con frecuencia nos aleja de compartir información y sentimientos que son, o podrían ser, dañinos o inapropiados. Resulta que los modelos de idiomas grandes (LLM) — que están entrenados en conjuntos de datos públicos extensos y, por lo tanto, a menudo tienen sesgos y lenguaje tóxico horneado en — pueden obtener una capacidad similar para moderar su propio idioma. Un nuevo método del MIT, el MIT-IBM Watson AI Lab e IBM Research, llamado muestreo autorregresivo autodisciplinado (SASA), permite a los LLM desintoxicar sus propios resultados, sin sacrificar la fluidez.  A diferencia de otros métodos de desintoxicación, este algoritmo de decodificación aprende un límite entre los subespacios tóxicos/no tóxicos dentro de la propia representación interna de los LLMM, sin alterar los parámetros del modelo, la necesidad de reentrenamiento o un modelo de recompensa externo. Luego, durante la inferencia, el algoritmo evalúa el valor de toxicidad de la frase parcialmente generada: tokens (palabras) ya generados y aceptados, junto con cada nuevo token potencial que podría elegirse razonablemente para la proximidad al límite del clasificador. A continuación, selecciona una opción de palabra que coloca la frase en el espacio no tóxico, ofreciendo en última instancia una forma rápida y eficiente de generar un lenguaje menos tóxico. “Queríamos encontrar una manera con cualquier modelo de lenguaje existente [que], durante el proceso de generación, la decodificación puede estar sujeta a algunos valores humanos; el ejemplo aquí que estamos tomando es la toxicidad,” dice el autor principal de los estudios Ching-Yun “Irene” Ko PhD ’24 un ex pasante graduado con el MIT-IBM Watson AI Lab y un científico de investigación actual en IBM Thomas J. Centro de Investigación Watson en Nueva York. Los coautores de Koats incluyen a Luca Daniel, profesor en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación del MIT (EECS), miembro del MIT-IBM Watson AI Lab y asesor graduado de Koo; y varios miembros del MIT-IBM Watson AI Lab y/o IBM Research — Pin-Yu Chen, Payel Das, Youssef Mroueh, Soham Dan, Georgios Kollias, Subhajit Chaudhury y Tejaswini Pedapati. El trabajo se presentará en la Conferencia Internacional sobre Representaciones de Aprendizaje. Encontrar la “barandillas” Los recursos de capacitación detrás de los LLM casi siempre incluyen contenido recopilado de espacios públicos como Internet y otros conjuntos de datos fácilmente disponibles. Como tal, las palabras de maldición y el lenguaje intimidatorio/inpalable son un componente, aunque parte de ellas se encuentran en el contexto de las obras literarias. Luego se deduce que los LLM pueden producir innatamente — o ser engañados para generar — contenido peligroso y/o sesgado, que a menudo contiene palabras desagradables o lenguaje odioso, incluso a partir de indicaciones inocuas. Además, se ha encontrado que pueden aprender y amplificar el lenguaje que no es preferido o incluso perjudicial para muchas aplicaciones y tareas posteriores — que conducen a la necesidad de estrategias de mitigación o corrección. Hay muchas maneras de lograr una generación de lenguaje sólida que sea justa y alineada con el valor. Algunos métodos utilizan el reentrenamiento LLM con un conjunto de datos desinfectado, que es costoso, lleva tiempo y puede alterar el rendimiento de LLMm; otros emplean modelos de recompensa externos de decodificación, como el muestreo o la búsqueda de haces, que tardan más en ejecutarse y requieren más memoria. En el caso de SASA, Ko, Daniel y el equipo de IBM Research desarrollaron un método que aprovecha la naturaleza autorregresiva de los LLM, y utilizando una estrategia basada en la decodificación durante la inferencia de LLMm, dirige gradualmente la generación — token a la vez — lejos de salidas desagradables o no deseadas y hacia un mejor lenguaje. El grupo de investigación logró esto mediante la construcción de un clasificador lineal que opera en el subespacio aprendido de la incrustación de LLMams. Cuando se entrenan los LLM, las palabras con significados similares se colocan estrechamente juntas en el espacio vectorial y más lejos de palabras diferentes; los investigadores plantearon la hipótesis de que una incrustación de LLMM también capturaría información contextual, que podría usarse para la desintoxicación. Los investigadores utilizaron conjuntos de datos que contenían conjuntos de un mensaje (la primera mitad de una oración o pensamiento), una respuesta (la finalización de esa oración) y anotación atribuida a los humanos, como tóxico o no tóxico, preferido o no preferido, con etiquetas continuas de 0-1, que denotan una toxicidad creciente. Luego se aplicó un clasificador óptimo de Bayes para aprender y dibujar figurativamente una línea entre los subespacios binarios dentro de las incrustaciones de oracionesrepresentado por valores positivos (espacio no tóxico) y números negativos (espacio tóxico).  El sistema SASA funciona entonces volviendo a ponderar las probabilidades de muestreo del token potencial más nuevo en función del valor del mismo y la distancia de las frases generadas al clasificador, con el objetivo de permanecer cerca de la distribución de muestreo original. Para ilustrar, si un usuario está generando un token potencial #12 en una oración, el LLM revisará su vocabulario completo en busca de una palabra razonable, basada en las 11 palabras que vinieron antes, y usando top-k, top-p, filtrará y producirá aproximadamente 10 tokens para seleccionar. SASA luego evalúa cada uno de esos tokens en la oración parcialmente completada por su proximidad al clasificador (es decir, el valor de los tokens 1-11, más cada token potencial 12). Se alientan los tokens que producen oraciones en

Leer más »

Cómo la IA Cambia los Requisitos de Infraestructura de su Red

Las redes tradicionales deben evolucionar para ejecutar cargas de trabajo de IA y transmitir datos a través de clústeres de GPU distribuidos de manera eficiente y confiable A medida que las empresas avanzan en las diversas etapas de madurez de la IA, descubren continuamente nuevos requisitos de infraestructura. Uno de esos requisitos es transformar su infraestructura de red para ejecutar cargas de trabajo de IA en GPU. Dada su importante inversión en la adquisición y administración de GPU, las empresas deben asegurarse de que estos servidores se ejecuten constantemente, sin interrupciones de conectividad, desafíos de latencia o problemas de ancho de banda. Tradicionalmente, Ethernet ha sido la opción para las redes de CPU. Sin embargo, las demandas informáticas de alto rendimiento de procesar cargas de trabajo de IA en grandes grupos de GPU distribuidas han elevado el listón del rendimiento, la escalabilidad y la eficiencia. Las aplicaciones como el procesamiento del lenguaje natural, la visión por computadora, los sistemas avanzados de asistencia al conductor (ADAS), los asistentes virtuales y los diagnósticos médicos requieren redes de baja latencia y alto ancho de banda que puedan manejar eficientemente cargas de trabajo complejas. Si la red no puede suministrar datos a las GPU lo suficientemente rápido, estarán infrautilizadas, lo que hará que el hardware no entregue el valor esperado por el costo. Las tecnologías maduras, incluidas InfiniBand™ y Remote Direct Memory Access Over Converged Ethernet (RoCE), están comenzando a emerger como las mejores opciones para la infraestructura de red en centros de datos listos para IA. Otro contribuyente a la evolución de las tecnologías de red es el Ultra Ethernet Consortium (UEC), una parte neutral que desarrolla protocolos en torno a redes de alta velocidad y especificaciones basadas en tecnologías Ethernet, que serán de gran interés para las empresas en el futuro. Muchas compañías líderes que desarrollan hardware o software de IA están participando en varios niveles de membresía dentro de la organización. Las tecnologías de infraestructura de red para IA continuarán evolucionando y desempeñarán un papel importante en la habilitación de las cargas de trabajo de IA que se ejecutan centros de datos de alto rendimiento. Exploración de opciones para tecnologías de redes de IA La elección de las tecnologías de red de IA adecuadas depende de los tipos de carga de trabajo de IA que las empresas están ejecutando, el volumen de datos que procesan y la cantidad de clústeres de GPU que necesitan conectarse entre sí. Además de resolver los desafíos de las redes de IA relacionados con la baja latencia y el alto ancho de banda, estas tecnologías pueden permitir un entorno de red sin pérdidas para ayudar a superar los cuellos de botella en el rendimiento de la red que ocurren naturalmente en los sistemas distribuidos a gran escala. Los datos enviados a través de la red deben llegar a su destino sin perderse ni corromperse. Las redes sin pérdida eliminan o reducen significativamente la pérdida de paquetes, asegurando la integridad y confiabilidad de los datos. InfiniBanda[1] es una tecnología de alto ancho de banda y baja latencia que ha existido durante más de veinte años, pero hasta ahora ha sido relativamente desconocida. Permite un alto rendimiento y una latencia ultrabaja de extremo a extremo para enormes cantidades de datos que se mueven en distancias cortas (típicamente dentro de un centro de datos). Esto hace que InfiniBand sea una solución ideal para ejecutar cargas de trabajo de IA en clústeres de GPU. InfiniBand utiliza sus propios adaptadores o conmutadores para facilitar las transferencias de datos, lo que la convierte en una solución premium. El control de extremo a extremo está integrado en el protocolo para lograr una red sin pérdidas, en lugar de lidiar con las retransmisiones y pausas de una red Ethernet típica. Esto ayuda a controlar la cantidad de datos liberados a la red, evitando el desbordamiento de búfer y la pérdida de paquetes. Las empresas confían en InfiniBand para obtener velocidad y confiabilidad en entornos informáticos de alto rendimiento. RoCE[2] es una tecnología basada en Ethernet que proporciona redes de alto rendimiento para cargas de trabajo de IA. Es más flexible y menos costoso que InfiniBand y es ideal para empresas con cargas de trabajo de IA que no requieren velocidades de procesamiento rápidas. RoCE es una tecnología de red más familiar que InfiniBand. Debido a que es un protocolo de capa 3, se puede enrutar, lo que permite transferencias de datos y conectividad potencialmente más largas a otras redes. También hay más fabricantes, lo que lleva a más opciones en equipos. Consorcio Ultra Ethernet[3] lidera el desarrollo de Ultra Ethernet Transport (UET). UET es una arquitectura de pila de comunicación basada en Ethernet para redes de alto rendimiento que satisfará las demandas de AI y HPC con soluciones robustas, escalables y de vanguardia basadas en estándares. Si bien aún es temprano en su desarrollo, es probable que tenga un impacto pronto, ya que muchas empresas líderes están involucradas en él. UEC planea impulsar el desarrollo de nuevo software y hardware para aumentar las velocidades de procesamiento y resolver otras barreras de redes de IA. Por ejemplo, actualmente, existen límites en el número de nodos interconectados concurrentes. Estos están determinados por una combinación de tipo de red, protocolos, capacidades de hardware y configuración adecuada. UEC planea introducir una solución para aumentar esos límites. Industrias con requisitos de red extremos para cargas de trabajo de IA Si bien todas las industrias requieren redes de alto rendimiento para procesar cargas de trabajo de IA, hay algunas donde los requisitos de rendimiento son especialmente altos. Ciertos casos de uso específicos de la industria exigen la velocidad de red más rápida posible y transferencias de datos confiables para completar la capacitación en modelos sensibles al tiempo. Por ejemplo, las empresas de ciencias de la vida pueden capacitar modelos de IA para identificar compuestos que los médicos pueden usar para tratar enfermedades de maneras nuevas y más efectivas. Imagine los mejores resultados para los pacientes que pueden impulsar mediante la introducción de tratamientos

Leer más »

Prince of Persia: La Corona Perdida ya disponible en dispositivos móviles

Prince of Persia: La Corona Perdida ya está disponible para dispositivos Android e iOS, junto con una prueba gratuita que permite a los jugadores acceder a la introducción del juego.  Este galardonado juego de plataformas de acción y aventuras se puede jugar en cualquier lugar sin conexión a internet, ya sea con un mando externo o con controles táctiles, y funciona a 60 FPS en las últimas generaciones de dispositivos móviles. Ambientado en el mundo mitológico del Monte Qaf, juegas como Sargón, un joven y talentoso guerrero del grupo de élite conocido como Los Inmortales. Sargón debe rescatar al príncipe Ghassan, secuestrado, y restaurar el equilibrio en una tierra antaño magnífica, ahora maldita. Como Sargón, usarás Poderes del Tiempo, habilidades de combate y habilidades de plataformas para derrotar a diversos enemigos corrompidos por el tiempo y criaturas míticas en desafiantes combates. Resuelve puzles, descubre tesoros ocultos y completa misiones para desvelar los misterios del Monte Qaf. Prince of Persia: The Lost Crown fue adaptado para dispositivos móviles por el estudio Ubisoft Da Nang. «Es un honor para nosotros llevar Prince of Persia: The Lost Crown a Mac y plataformas móviles, un proyecto que el equipo considera un privilegio y una oportunidad emocionante», afirma Nhi Ho Ngoc Bao, productor asociado de Ubisoft Da Nang. La colaboración con el prestigioso equipo central de Montpellier también ha sido un punto culminante del proyecto. Conocidos por su amplia trayectoria y experiencia en Ubisoft, trabajar junto a ellos ha aportado información y experiencias invaluables al equipo de Da Nang. Esta versión móvil presenta características únicas como pociones automáticas, paradas automáticas y opciones de ralentización del tiempo, además de otras mejoras de calidad de vida diseñadas para juegos móviles. Incluye todas las funciones de accesibilidad del juego original, ganador del Premio a la Innovación en Accesibilidad en The Game Awards 2024. Descarga y juega Prince of Persia: The Lost Crown en tu dispositivo móvil a través de iOS App Store y Google Play Store , disponible a un precio de descuento de promoción de lanzamiento especial hasta el 5 de mayo. Prince of Persia: The Lost Crown también está disponible para PC a través de  Ubisoft Store , Epic Games Store y Steam, así como para Mac, Switch, PS5, PS4, Xbox Series X|S, Xbox One y Amazon Luna. Ubisoft News. Traduc

Leer más »

Cómo la observabilidad se está ajustando a la IA generativa

Observabilidad es la capacidad de comprender el estado interno de un sistema analizando sus salidas externas, principalmente a través de datos de telemetría como , eventos, registros y trazas, colectivamente conocido como “MELT data.” La observabilidad va más allá de las soluciones de monitoreo tradicionales para proporcionar información crítica sobre los sistemas de software y computación en la nube entornos, ayudando a los equipos de TI a garantizar la disponibilidad, optimizar el rendimiento y detectar anomalías. La mayoría de los sistemas de TI se comportan de manera determinista, lo que hace que análisis de causa raíz bastante sencillo. Cuando una aplicación falla, las herramientas de observabilidad pueden usar datos MELT para correlacionar señales y detectar fallas, determinando si se trata de una fuga de memoria base de datos falla de conexión o tiempo de espera de API. Pero modelos de idiomas grandes (LLM) y otro inteligencia artificial generativa (IA) las aplicaciones complican la observabilidad. A diferencia del software tradicional, los LLM producen salidas probabilísticas, lo que significa que las entradas idénticas pueden producir respuestas diferentes. Esta falta de interpretabilidad—o la dificultad de rastrear cómo las entradas dan forma a las salidas— pueden causar problemas para las herramientas de observabilidad convencionales. Como resultado, la resolución de problemas, la depuración y el monitoreo del rendimiento son significativamente más complejos en los sistemas de IA generativa. «La observabilidad puede detectar si una respuesta de IA contiene información de identificación personal (PII), por ejemplo, pero no puede evitar que suceda,” explica Drew Flowers de IBM, Líder de Ventas de las Américas para Instana. “El proceso de toma de decisiones del modelo sigue siendo una caja negra.» Esto «caja negra» el fenómeno destaca un desafío crítico para la observabilidad de LLM. Si bien las herramientas de observabilidad pueden detectar problemas que han ocurrido, no pueden prevenir esos problemas porque luchan con la IA explicabilidad—la capacidad de proporcionar una razón comprensible para el ser humano por la cual un modelo tomó una decisión específica o generó una salida en particular. Hasta que se resuelva el problema de explicabilidad, las soluciones de observabilidad de IA deben priorizar las cosas que pueden medir y analizar de manera efectiva. Esto incluye una combinación de datos MELT tradicionales y métricas de observabilidad específicas de IA. Métricas críticas para la observabilidad de la IA gen Si bien las métricas tradicionales no proporcionan una visibilidad completa del comportamiento del modelo, siguen siendo componentes esenciales de la observabilidad de la IA. CPU, la memoria y el rendimiento de la red afectan directamente la funcionalidad del sistema de IA y la experiencia del usuario. Pueden ayudar a las organizaciones a evaluar la eficiencia con la que se ejecutan las cargas de trabajo de IA y si las restricciones de infraestructura están afectando el rendimiento del modelo y los tiempos de respuesta. Sin embargo, la observabilidad integral de la IA requiere métricas adicionales que monitoreen las cualidades específicas del comportamiento y los resultados del modelo de IA, que incluyen: Uso de tokens Un token es una unidad individual de language—, generalmente una palabra o una parte de una palabra—, que un modelo de IA puede entender. El número de tokens que un modelo procesa para comprender una entrada o producir una salida afecta directamente el costo y el rendimiento de una aplicación basada en LLM. Un mayor consumo de tokens puede aumentar los gastos operativos y la latencia de respuesta. Las métricas clave para rastrear el uso del token incluyen: Estas métricas pueden ayudar a las organizaciones a identificar oportunidades de optimización para reducir el consumo de tokens, como refinar las solicitudes para transmitir más información en menos tokens. Al optimizar la utilización de tokens, las organizaciones pueden mantener una alta calidad de respuesta al tiempo que reducen potencialmente los costos de inferencia aprendizaje automático cargas de trabajo. Modelo drift  A diferencia del software tradicional, los modelos de IA pueden cambiar gradualmente su comportamiento como mundo real datos evoluciona. Este fenómeno, conocido como modelo drift, puede afectar significativamente la confiabilidad y el rendimiento del sistema de IA. Las métricas clave para rastrear la deriva del modelo incluyen: Los mecanismos de detección de deriva pueden proporcionar alertas tempranas cuando la precisión de un modelo disminuye para casos de uso específicos, lo que permite a los equipos intervenir antes de que el modelo interrumpa las operaciones comerciales. Calidad de respuesta El monitoreo de la calidad de salida de IA es esencial para mantener la confianza, la confiabilidad y el cumplimiento. Las métricas clave para rastrear la calidad de la respuesta incluyen: Si bien el seguimiento de estas métricas puede ayudar a marcar respuestas anómalas, las herramientas de observabilidad no pueden explicar completamente por qué ocurren las alucinaciones, ni pueden determinar automáticamente la corrección del contenido generado por la IA. Estos son desafíos centrales para la confianza y la gobernanza de la IA que aún no han sido abordados por nadie. Monitoreo responsable de IA Garantizar la implementación ética de la IA y el cumplimiento normativo requiere un monitoreo integral del contenido generado por la IA. Métricas clave para el seguimiento IA responsable incluir: En tiempo real visualización los paneles con detección automatizada de anomalías pueden alertar a los equipos cuando las salidas de IA se desvían de las normas esperadas. Este enfoque proactivo ayuda a las organizaciones a abordar los problemas rápidamente, monitorear el rendimiento de la IA a lo largo del tiempo y garantizar la implementación responsable de la IA a escala. Mixture of Experts | 11 abril, episodio 50 OpenTelemetry y observabilidad de IA OpenTelemetry (OTel) se ha convertido en el marco estándar de la industria para recopilar y transmitir datos de telemetría, y también puede ayudar con la observabilidad generativa de la IA. Esto código abierto el proyecto proporciona un enfoque neutral para el proveedor de la observabilidad que es particularmente valioso en ecosistemas complejos de IA. Para los proveedores de IA, OpenTelemetry ofrece una forma de estandarizar la forma en que comparten los datos de rendimiento sin exponer los detalles del modelo propietario o el código fuente. Para las empresas, garantiza que los datos de observabilidad fluyan de manera consistente a través de tuberías de IA complejas que pueden incluir múltiples modelos, varias dependencias y recuperación de generación aumentada (RAG) sistemas. Los

Leer más »

Nuestro Marco de Preparación actualizado

Compartir nuestro marco actualizado para medir y proteger contra daños graves de las capacidades de IA de frontera. Estamos está lanzando una actualización de nuestro Marco de Preparación, nuestro proceso para rastrear y prepararse para capacidades avanzadas de IA que podrían introducir nuevos riesgos de daños graves. A medida que nuestros modelos continúan obteniendo más capaz, la seguridad dependerá cada vez más de tener las salvaguardas correctas del mundo real. Esta actualización introduce un enfoque más nítido en los riesgos específicos que más importan, requisitos más sólidos para lo que significa “minimizar suficientemente” esos riesgos en la práctica, y una orientación operativa más clara sobre cómo evaluamos, gobernamos y divulgamos nuestras salvaguardas. Además, presentamos categorías de investigación orientadas al futuro que nos permiten permanecer a la vanguardia de la comprensión de las capacidades emergentes para mantener el ritmo hacia el que se dirige la tecnología. Continuaremos invirtiendo profundamente en este proceso haciendo que nuestra preparación sea más procesable, rigurosa y transparente a medida que avanza la tecnología. Hemos aprendido mucho de nuestras propias pruebas, ideas de expertos externos y lecciones del campo. Esta actualización refleja ese progreso. En línea con nuestros principios básicos de seguridadéste realiza mejoras específicas que incluyen: Continuaremos publicando nuestros hallazgos de Preparación con cada lanzamiento del modelo de frontera, tal como lo hemos hecho GPT‑4o, O1 openAI, Operador, o3‑mini, investigación profunda, y GPT‑4.5y comparta nuevos puntos de referencia para apoyar esfuerzos de seguridad más amplios en todo el campo. Estamos profundamente agradecidos a los equipos internos, investigadores externos y pares de la industria que han contribuido con información invaluable a esta última actualización. El Marco de Preparación sigue siendo un documento vivo, y esperamos continuar actualizándolo a medida que aprendamos más. OpenAI News. Traducido al español

Leer más »

Broadcom Presenta la Capacidad de Predicción de Primeros Incidentes de la Industria para Detener los Ataques de Vida Fuera de la Tierra

Aprovechando la IA avanzada, Symantec Endpoint Security puede predecir que los ciberdelincuentes se mueven en la cadena de ataque, detenerlos rápidamente y devolver a las organizaciones a un estado de resistencia cibernética PALO ALTO, California., 15 De abril de 2025 (GLOBE NEWSWIRE) — Broadcom Inc. (NASDAQ:AVGO) anunció hoy Incident Prediction, una capacidad de seguridad de primera industria que se extiende Protección Adaptativa, una característica única de Symantec Endpoint Security Complete (SES-C), aprovechando la IA para identificar e interrumpir los ataques de vida fuera de la tierra (LOTL) y otras amenazas cibernéticas. Entrenado en un catálogo de más de 500,000 cadenas de ataque del mundo real construidas por la Amenaza Symantec de clase mundial Equipo Hunter, Incident Prediction vuelve a poner la ventaja en manos de los defensores’ al: predecir comportamientos de los atacantes’, evitar su próximo movimiento en la cadena de ataque incluso cuando están usando software legítimo, y luego devolver rápidamente a la empresa a su estado normal. Con Incident Prediction, SES-C ofrece una resistencia cibernética excepcional contra adversarios motivados. “La inspiración para la Predicción de Incidentes provino de cómo GenaI puede ‘predecir’ la siguiente palabra al generar texto,” dijo Eric Chien, Compañero, Symantec Amenaza Equipo Hunter, Broadcom. “Al aprovechar nuestro extenso repositorio de cadena de ataque e inteligencia de amenazas utilizando AI y ML avanzados, Incident Prediction puede predecir los próximos cuatro o cinco movimientos posibles que los atacantes realizarán en un entorno de atención al cliente, interrumpirlos y luego volver a la normalidad de inmediato. Como resultado, los analistas de seguridad ya no necesitan clasificar el evento para descubrir estrategias de mitigación; Incident Prediction lo hace automáticamente para ellos Con Incident Prediction, los analistas de SOC y otros profesionales de la seguridad pueden: El uso de software legítimo por parte de los ciberdelincuentes, el enfoque utilizado en los ataques LOTL, está en el subir. Según “Ransomware 2025: Una Amenaza Resiliente y Persistente,” un nuevo informe de la amenaza Symantec Equipo Hunter, los ataques LOTL son utilizados por casi todos los actores de ransomware. Los actores del estado-nación también los usan para realizar vigilancia o exfiltrar datos. Y las grandes organizaciones no son las únicas víctimas – las empresas del mercado medio son cada vez más objetivo. En lugar de volver a visualizar toda la máquina o cambiar las credenciales de todos los gustos cuando se descubre un ataque, los profesionales de la seguridad pueden usar Incident Prediction para tener un control más detallado sobre su seguridad al bloquear solo los comportamientos más probables de los atacantes para reducir el riesgo de interrupción del negocio y permitir una respuesta simplificada a los incidentes – a medida que ocurren los ataques – todo sin costo adicional. “Broadcom se centra en proporcionar seguridad de nivel empresarial para todas las organizaciones, ya sea que tengan un SOC maduro o un pequeño equipo de seguridad. Incident Prediction cumple con este compromiso – las organizaciones pueden mejorar las capacidades de SOC independientemente de la sofisticación, dijo” Jason Rolleston, Vicepresidente y Gerente General, Grupo de Seguridad Empresarial, Broadcom. “Hoy en día, cada organización necesita empoderar a sus equipos de seguridad para que sean más rápidos, más fuertes y más resistentes contra grupos APT altamente sofisticados. Con Incident Prediction, ahora tienen un sistema automatizado que puede marcar, actuar y ayudar a proteger contra los ataques cibernéticos – a medida que ocurren – más rápido y más rentable.” Nos vemos en la Conferencia RSAC™ 2025 Broadcom es un patrocinador Gold de Conferencia RSAC™ 2025, que tendrá lugar 28 De abril– 1 De mayo de 2025en el Moscone Center en San Francisco. Broadcom demostrará innovaciones de Symantec y Negro Carbonoen el stand N-5345 en la North Expo. Además, los ejecutivos de Broadcom hablarán en el evento. Arnaud Taddei, Global Security Strategist, Broadcom, y Roelof du Toit Distinguished Engineer, Broadcom, presentarán, “ECH: ¿Hola a la Privacidad Mejorada o Adiós a la Visibilidad?” en Lunes 28 de Abrilel de 10:50 AM a 11:40 AM PT. Además, Eric Chien, Compañero, Symantec Amenaza Equipo Hunter, Broadcom, y Jason Rolleston, Vicepresidente y Gerente General, Grupo de Seguridad Empresarial, Broadcom, presentará, “Under Siege: Cómo los APT y los Estados-Nación Vienen para Todos,” en Martes 29 de Abrilel de 2:25 PM a 3:15 PM PT. Precios y Disponibilidad La Predicción de Incidentes está disponible ahora como una nueva característica para la Protección Adaptativa, que forma parte de Symantec Endpoint Security Completo (SES-C), sin costo adicional para los clientes actuales de SES-C. SES-C es una de las plataformas de seguridad de punto final más integradas del planeta y ofrece protección basada en la nube con gestión de seguridad guiada por IA, todo en una sola arquitectura de agente/consola. Broadcom News. Traducido al español

Leer más »

[Explorando Good Lock ①] La herramienta de personalización definitiva: Descubre el nuevo Home Up

El módulo Home Up actualizado introduce una mayor flexibilidad de diseño y amplía significativamente posibilidades de adpatar la pantalla de inicio según las preferencias individuales Para los usuarios de Galaxy que desean expresar su estilo, Good Lock de Samsung Electronics es la herramienta definitiva para la personalización del dispositivo. Con la actualización One UI 7, esta aplicación imprescindible ofrece ahora un conjunto aún más versátil de funciones de personalización de la interfaz de usuario (UI) adaptadas a las preferencias individuales. Entre las muchas mejoras, destaca el módulo Home Up actualizado, que introduce una mayor flexibilidad de diseño y amplía significativamente las posibilidades de personalización de la pantalla de inicio. Samsung Newsroom explora lo último en personalización de IU con una mirada en profundidad a lo que ofrece la nueva función Home Up. DIY Home Screen: Una nueva forma de distribuir y organizar las aplicaciones ▲ (Desde la izquierda) Comparación entre la pantalla de inicio predeterminada de Galaxy S25 Ultra y una pantalla de inicio personalizada con Good Lock Rompiendo con las cuadrículas tradicionales y los iconos uniformes de las aplicaciones, la función DIY Home Screen en Home Up permite a los usuarios diseñar un diseño que refleje su estilo único. Las aplicaciones, widgets y carpetas se pueden redimensionar y reposicionar libremente, como si se tratara de personalizar las páginas de una agenda. ▲ La función DIY Home Screen Para dar un toque divertido, los usuarios pueden ocultar ingeniosamente los iconos de las aplicaciones bajo elementos decorativos con las herramientas de pegatinas y capas. Basta con añadir una pegatina a la pantalla de inicio, colocarla sobre el icono de una aplicación y ajustar la configuración de la capa. Esta configuración transforma la pegatina en un divertido acceso directo que abre la aplicación oculta con un toque. ▲ Ocultar una aplicación debajo de una pegatina utilizando la función DIY Home Screen Mostrar Favoritos: Mostrar u ocultar la fila de aplicaciones favoritas La fila fija de favoritos en la parte inferior de la pantalla de inicio es un elemento familiar en la mayoría de los smartphones. Con Good Lock, sin embargo, este diseño predeterminado es fácil de personalizar. Los usuarios que prefieran una estética más limpia y minimalista pueden desactivar la opción Mostrar Favoritos en el menú de Home Up para disfrutar de una experiencia simplificada y renovada en la pantalla de inicio. Video Player ▲ Simplificar la pantalla de inicio desactivando la opción Mostrar Favoritos Home Gesture Animation: Control afinado para una navegación más fluida La función Home Gesture Animation –que se encuentra en Good Lock > Home Up > Ajustes de Gestos– es perfecta para los usuarios que quieren añadir un toque de personalidad a cada interacción. La función ofrece una forma única de personalizar las animaciones de transición que se activan al volver de una aplicación a la pantalla de inicio, haciendo que incluso los gestos más sencillos sean más expresivos y agradables. Además de los cuatro estilos de animación predefinidos, Advanced Tuning ofrece un control granular sobre aspectos como la velocidad y la vibración para una experiencia de usuario más refinada. Video Player ▲ (Desde la izquierda) La función Home Gesture Animation mostrada en modo Classic y modo Sweet El módulo Home Up en Good Lock ofrece un conjunto de herramientas útiles para personalizar las pantallas de inicio de los dispositivos según las preferencias personales. En el próximo artículo de esta serie, Samsung Newsroom destacará las tres funciones más populares de Good Lock — las favoritas de los usuarios de Galaxy de todo el mundo. Samsung News

Leer más »

¿Busca consejos sobre cómo obtener (y mantener) un Skell? ¡Súbete!

En el Xenoblade Chronicles™ X: Edición definitiva juego, vas a ir en una aventura masiva de ciencia ficción para reconstruir la humanidad después de que la Tierra es destruida por las razas alienígenas en guerra. Explora un mundo misterioso lleno de paisajes llamativos, plantas extrañas y temibles (a veces imponentes) enemigos. Como habrás notado, los humanos generalmente no tienen el tamaño de una montaña. Entonces, ¿cómo se supone que debes enfrentarte a monstruos gigantescos como un pequeño humano? ¡Con la ayuda de poderosos robots armados que puedes pilotar, llamados Skells! En este artículo, weizll cubrirá los beneficios de tener su licencia de Skell, consejos sobre cómo obtener una Skell y cómo hacerlo mantener tu Skell. Vamos a vestirnos, ¿de acuerdo? ¿Por qué Skells? Los skells son vehículos fuertemente blindados preparados para ayudarlo en el combate y la exploración. Una vez que haya obtenido su Skell, puede intercambiar entre dos modos: vehículo y andador. El modo de vehículo aumentará en gran medida su velocidad de cobertura, mientras que el modo de andador transforma su Skell en una nave bípeda, dándole los medios para caminar, volar y saltar mientras pilotea su máquina. Entonces, ¿cómo obtienes uno? Consejos útiles para obtener ‘em Consejo 1: Siempre estar reuniéndose Lo primero es lo primero: En tu camino hacia un Skell, necesitarás varios recursos, como Miranium. Mientras explora, intente recoger cualquier artículo y/o misión que encuentre. Tu futuro yo puede agradecerte. Puede obtener consejos más específicos sobre cómo encontrar recursos revisando el artículo “Available now” en su feed de noticias de Nintendo Switch. Consejo 2: Misiones de historia completas Es fácil desviarse por la cantidad de misiones secundarias que puede realizar, por lo que querrá recordar continuar con las misiones de la historia. Después de la misión de la historia del Capítulo 6, obtendrá un mensaje de Vandham sobre cómo obtener su Licencia Skell. Una vez que chatees con él, comenzarás una Misión Normal para aprobar exámenes para cada División. Completa esos y desbloquearás tu licencia de Skell. Consejo 3: Volamos Conseguir un Skell no significa que estés listo para los cielos, recluta. Para desbloquear sus capacidades de vuelo, deberá completar el Capítulo 9. Luego, Vandham le indicará que visite Mission Control y acepte la “Módulo de Vuelo” misión básica. ¡Una vez completado, podrás acceder a lugares previamente inalcanzables, como los cielos! Consejo 4: Presentamos a Liesel y su Skell Conseguir un nuevo miembro del equipo para ayudarle a lo largo de su viaje es genial. ¿Conseguir un personaje recién agregado como miembro del equipo que viene con un Skell completamente nuevo? ¡Eso es simplemente emocionante! Después de obtener tu propio Skell, querrás estar atento a una misión de afinidad llamada “New Skell on the Block.” Una vez completado, su grupo estará listo para sus nuevas incorporaciones. Cómo mantener tu Skell Una vez que consigas tu Skell, estarás prooobablemente voy a querer mantenerlo. Bueno, en un planeta indómito con muchos monstruos gigantes y agresivos, eso puede ser más difícil de lo que parece. Para ayudarlo a evitar tener que comprar un Skell completamente nuevo, aquí hay algunos consejos para mantener a su nuevo amigo robot. Consejo 5: ¡EYECTAR! Si su Skell toma demasiado daño y va en auge, reemplazarlo puede ser muy costoso. Si bien puede usar una de las pólizas de seguro de Skell para reemplazarla, solo tiene un número limitado de estas. Puedes evitar todo esto aprendiendo a expulsar. Cuando tu Skell recibe demasiado daño en la batalla, se te dará un mensaje de botón B. ¡Si se presiona en el momento correcto, expulsará y podrá obtener un reemplazo— de forma gratuita! Afortunadamente, solo tendrás que preocuparte por tu propio Skell. Cualquier miembro del partido que tengas siempre expulsará perfectamente y salvará sus Skells. Para recuperar su Skell después de una expulsión exitosa, vaya al quiosco BLADE Barracks Customization Center y seleccione Barracks Hangar. Verá un mensaje de que ha completado con éxito un Desafío del Alma, y esto significará que su Skell ha sido reemplazado y está listo para su uso. Consejo 6: Boletos de salvamento Si se queda sin pólizas de seguro, aún puede recuperar su Skell utilizando un boleto de rescate. Estos boletos se pueden encontrar como recompensas cuando aumenta la tasa de su encuesta o al elegirlos de las recompensas diarias de Divisionans. Los boletos de rescate no están garantizados en recompensas diarias, pero el inventario cambia, así que sigue revisando. Consejo 7: No eres lo único en el cielo Por último, nos gustaría dejarte con un último consejo. Esté atento a los monstruos voladores gigantes que buscan humillarte. Estar en un vehículo blindado volador no te hace invencible, pero te da una ventaja maravillosa en la batalla. Solo recuerda seguir mejorando tu armadura y armas. Buena suerte, reclutas. ¡Tienes esto! Nintendo News. Traducido al español

Leer más »

Fortalecer a Suiza como un centro de IA y abordar la escasez de mano de obra calificada

ETH Zurich está expandiendo sus actividades en el campo de la inteligencia artificial, impulsando el estatus de Suiza como un centro de IA. La universidad también está abordando la escasez de mano de obra calificada del país a través de sus programas de educación y capacitación. Sin embargo, ETH Zurich teme que un inminente cambio de paradigma en las tasas de matrícula pueda representar un desafío para su modelo de éxito. En resumen ETH Zurich continuó su contribución a la posición de Suiza como uno de los países más innovadores del mundo. El año pasado, la universidad produjo alrededor de 4.000 nuevos profesionales calificados, casi 300 invenciones, patentes y licencias, y lanzó 37 nuevas escisiones. En su 2024 informe anual publicado hoy, la universidad reflexiona sobre estos logros y destaca los éxitos del año pasado. Por quinto año consecutivo, más del 40 por ciento de los profesores recién nombrados eran mujeres, superando una vez más el objetivo propio de la universidad. ETH también estuvo a la altura de su papel como pionero en la educación, lanzando un nuevo programa de Maestrías en ciencias espaciales el otoño pasado – el primer programa de este tipo en Europa, con un plan de estudios diseñado para capacitar a especialistas para la industria espacial suiza y europea en rápido crecimiento. En 2024, ETH Zurich unió fuerzas con EPFL, PSI, Empa y numerosos socios del sector privado para establecer una asociación sin fines de lucro para avanzar página externaCoalición para la Energía Verde y el Almacenamiento (CGES). An sistema de almacenamiento de hidrógeno a base de hierro en el campus de Hönggerberg se presentó como el primer proyecto de las iniciativas. “Este es un excelente ejemplo de cómo desarrollamos soluciones para acelerar la transición a un sistema energético sostenible y resistente en Suiza,” dijo el Presidente de ETH, el Profesor Joël Mesot, en la conferencia de prensa anual. Suiza defiende una IA transparente y confiable La inteligencia artificial está transformando fundamentalmente la ciencia, los negocios y la sociedad. Para mantenerse competitivos en el panorama global de IA, ETH Zurich y EPFL se unieron para establecer el Instituto Nacional Suizo de IA (SNAI) en 2024. El instituto actualmente comprende más de 800 investigadores de IA de 10 universidades e instituciones de investigación en toda Suiza. “el objetivo de SNAIians es posicionar a Suiza como una ubicación global superior para desarrollar e implementar una IA transparente y confiable,” dice Joël Mesot. Para aprovechar eficazmente la IA, una masa crítica de talento y datos es esencial –, ya que tiene acceso a la potencia informática necesaria. Como resultado, SNAI depende en gran medida de la nueva supercomputadora Alps, que se inauguró en el CSCS en Lugano en el otoño de 2024. Este desarrollo le da a Suiza una ventaja geográfica significativa en el campo de la IA. Uno de los objetivos principales de SNAIi es desarrollar un modelo de lenguaje de IA suizo para el verano de 2025. A diferencia de muchos modelos comerciales, este está diseñado para ser transparente y abiertamente accesible. Las agencias oficiales y las empresas tendrán la oportunidad de utilizar este modelo como base para crear modelos lingüísticos más específicos. Por ejemplo, los investigadores de ETH Zurich ya están colaborando con la Corte Suprema Federal y la Oficina Federal de Justicia para crear un modelo adaptado para el sistema judicial suizo. Los graduados de ETH luchan contra la escasez de habilidades Los profesionales bien entrenados son un pilar clave de la prosperidad en Suiza. Con alrededor de 4,000 Maestrías y estudiantes de doctorado que se gradúan cada año, ETH Zurich hace una contribución significativa para combatir la escasez de habilidades en el país. Alrededor del 97 por ciento de los graduados encuentran empleo dentro de un año, con más del 80 por ciento restante en Suiza. El Índice de Habilidades de la Secretaría de Estado de Asuntos Económicos (SECO) muestra que los graduados de ETH tienen una gran demanda. Trabajan principalmente en profesiones donde la escasez de mano de obra calificada doméstica a largo plazo es la más aguda. Aproximadamente el 40 por ciento trabaja como ingenieros y científicos, y alrededor del 14 por ciento en el desarrollo de software – ambos campos con una pronunciada escasez de mano de obra calificada. Desde 2010, el número de especialistas educados anualmente por ETH se ha más que duplicado. Sin embargo, la contribución financiera federal ha aumentado solo un 27 por ciento durante el mismo período de tiempo. “Esto muestra que weiz ha podido mejorar significativamente la eficiencia de nuestra enseñanza,” dice ETH Rector Günther Dissertori, quien es responsable de la enseñanza. “Sin embargo, con un número cada vez mayor de estudiantes, será cada vez más difícil mantener nuestro alto nivel de calidad.” Los estudiantes sonnatst “cash cows” El paquete de ayuda propuesto por los gobiernos federales para 2027 incluye un plan para reducir la financiación del Dominio ETH en 78 millones de francos suizos, y los fondos faltantes se equilibrarán con tarifas estudiantiles más altas. Los cálculos de la Junta de ETH muestran que, dependiendo del escenario, las tasas de matrícula para los estudiantes suizos con una calificación de ingreso a la universidad (Matura) serían más del doble, mientras que las tarifas para los estudiantes internacionales tendrían que ser alrededor de siete veces más altas de lo que son hoy. “ETH Zurich considera comprensible que los estudiantes extranjeros contribuyan más financieramente a sus estudios,” explica Dissertori. “Sin embargo, la perspectiva de más del doble de las tarifas para los estudiantes suizos representa un cambio de paradigma. En Suiza, siempre hemos considerado a los estudiantes como una inversión valiosa en el futuro, no como una fuente de ingresos.” Un cambio de este tipo pondría en peligro el éxito de ETH Zurich, sin proporcionar un alivio sustancial para las finanzas de la universidad. Las tasas de matrícula actualmente representan menos del dos por ciento del presupuesto de ETH. Según Dissertori, la dependencia mínima de ETH Zurich en las tasas de matrícula ha sido un factor clave en su éxito. “Queremos atraer a los mejores

Leer más »
Scroll al inicio