El Portal de las Tecnologías para la Innovación

Noticias

Presentamos OpenAI o3 y o4-mini

Nuestros modelos más inteligentes y capaces hasta la fecha con acceso completo a herramientas Hoy lanzamos OpenAI o3 y o4-mini, los modelos más recientes de nuestra serie o, entrenados para pensar durante más tiempo antes de responder. Estos son los modelos más inteligentes que hemos lanzado hasta la fecha, lo que representa un cambio radical en las capacidades de ChatGPT para todos, desde usuarios curiosos hasta investigadores avanzados. Por primera vez, nuestros modelos de razonamiento pueden usar y combinar de forma agente todas las herramientas de ChatGPT, incluyendo la búsqueda web, el análisis de archivos subidos y otros datos con Python, el razonamiento profundo sobre entradas visuales e incluso la generación de imágenes. Fundamentalmente, estos modelos están entrenados para razonar sobre cuándo y cómo usar las herramientas para producir respuestas detalladas y bien pensadas en los formatos de salida adecuados, generalmente en menos de un minuto, para resolver problemas más complejos. Esto les permite abordar preguntas multifacéticas con mayor eficacia, un paso hacia un ChatGPT más agente que puede ejecutar tareas de forma independiente. La combinación del poder del razonamiento de vanguardia con acceso completo a las herramientas se traduce en un rendimiento significativamente superior en pruebas académicas y tareas del mundo real, estableciendo un nuevo estándar tanto en inteligencia como en utilidad. ¿Qué ha cambiado? OpenAI o3 es nuestro modelo de razonamiento más potente, que revoluciona la programación, las matemáticas, la ciencia, la percepción visual y más. Establece un nuevo SOTA en benchmarks como Codeforces, SWE-bench (sin crear un andamiaje específico para el modelo) y MMMU. Es ideal para consultas complejas que requieren un análisis multifacético y cuyas respuestas pueden no ser obvias de inmediato. Se desempeña especialmente bien en tareas visuales como el análisis de imágenes, diagramas y gráficos. En evaluaciones realizadas por expertos externos, o3 comete un 20 % menos de errores importantes que OpenAI o1 en tareas difíciles del mundo real, destacando especialmente en áreas como programación, negocios/consultoría e ideación creativa. Los primeros evaluadores destacaron su rigor analítico como un socio de pensamiento y enfatizaron su capacidad para generar y evaluar críticamente hipótesis novedosas, particularmente en contextos de biología, matemáticas e ingeniería. OpenAI o4-mini es un modelo más pequeño, optimizado para un razonamiento rápido y rentable. Logra un rendimiento notable para su tamaño y costo, especialmente en matemáticas, programación y tareas visuales . Es el modelo de referencia con mejor rendimiento en AIME 2024 y 2025. Si bien el acceso a una computadora reduce significativamente la dificultad del examen AIME, también destacamos que o4-mini logra un 99.5% de aprobados a 1 (100% de consenso a 8) en AIME 2025 al tener acceso a un intérprete de Python. Si bien estos resultados no deben compararse con el rendimiento de modelos sin acceso a herramientas, son un ejemplo de la eficacia con la que o4-mini aprovecha las herramientas disponibles; o3 muestra mejoras similares en AIME 2025 gracias al uso de herramientas (98.4% de aprobados a 1, 100% de consenso a 8). En evaluaciones de expertos, o4-mini también supera a su predecesor, o3-mini, en tareas no STEM, así como en dominios como la ciencia de datos. Gracias a su eficiencia, o4-mini admite límites de uso significativamente mayores que o3, lo que lo convierte en una opción sólida para preguntas de alto volumen y alto rendimiento que se benefician del razonamiento. Evaluadores expertos externos calificaron ambos modelos por demostrar un mejor seguimiento de instrucciones y respuestas más útiles y verificables que sus predecesores, gracias a una inteligencia mejorada y a la inclusión de fuentes web. En comparación con versiones anteriores de nuestros modelos de razonamiento, estos dos modelos también deberían resultar más naturales y conversacionales, especialmente porque hacen referencia a la memoria y a conversaciones pasadas para que las respuestas sean más personalizadas y relevantes.o1o3-minio3 (no tools)o4-mini (no tools)Accuracy (%)74.387.391.693.4AIME 2024Competition Matho1o3-minio3 (no tools)o4-mini (no tools)Accuracy (%)79.286.588.992.7AIME 2025Competition Matho1o3-minio3 (with terminal)o4-mini (with terminal)ELO1891207327062719CodeforcesCompetition Codeo1o3-minio3 (no tools)o4-mini (no tools)Accuracy (%)78.077.083.381.4GPQA DiamondPhD-Level Science Questionso1-proo3-minio3 (no tools)o3 (python + browsing** tools)o4-mini (no tools)o4-mini (with python + browsin…Deep researchAccuracy (%)8.1213.4020.3224.9014.2817.7026.60Humanity’s Last ExamExpert-Level Questions Across Subjects Multimodal o1o3o4-miniAccuracy (%)77.682.981.6MMMUCollege-level visual problem-solvingo1o3o4-miniAccuracy (%)71.886.884.3MathVistaVisual Math Reasoningo1o3o4-miniAccuracy (%)55.178.672.0CharXiv-ReasoningScientific Figure Reasoning Codificación o1-higho3-mini-higho3-higho4-mini-high$0$59,000$118,000$177,000$236,000Dollars earned$28,500$17,375$65,250$56,375SWE-Lancer: IC SWE DiamondFreelance Coding Taskso1o3-minio3o4-miniAccuracy (%)48.949.369.168.1SWE-Bench VerifiedSoftware Engineeringo1-higho3-mini-higho3-higho4-mini-highAccuracy (%)64.4%(whole)61.7%(diff)66.7%(whole)60.4%(diff)81.3%(whole)79.6%(diff)68.9%(whole)58.2%(diff)Aider PolyglotCode Editing Seguimiento de instrucciones y uso de herramientas de forma agente o1o3-minio3o4-miniAccuracy (%)44.9339.8956.5142.99Scale MultiChallengeMulti-turn instruction following4o + browsingo3 with python + browsing*o4-mini with python + browsin…Deep researchAccuracy (%)1.949.728.351.5BrowseCompAgentic Browsingo1-higho3-mini-higho3-higho4-mini-highAccuracy (%)50.0%(Airline)70.8%(Retail)32.4%(Airline)57.6%(Retail)52.0%(Airline)70.4%(Retail)49.2%(Airline)65.6%(Retail)Tau-benchFunction Calling Todos los modelos se evalúan con configuraciones de «esfuerzo de razonamiento» elevado, similares a variantes como «o4-mini-high» en ChatGPT. Continuamos ampliando el aprendizaje de refuerzo Durante el desarrollo de OpenAI o3, hemos observado que el aprendizaje por refuerzo a gran escala exhibe la misma tendencia de «mayor cómputo = mejor rendimiento » observada en el preentrenamiento de la serie GPT. Al repasar la trayectoria de escalado, esta vez en aprendizaje por refuerzo (RL), hemos impulsado un orden de magnitud adicional tanto el cómputo de entrenamiento como el razonamiento en tiempo de inferencia, y aun así observamos claras mejoras de rendimiento, lo que confirma que el rendimiento de los modelos continúa mejorando cuanto más se les permite pensar. Con la misma latencia y coste que OpenAI o1, o3 ofrece un mayor rendimiento en ChatGPT, y hemos confirmado que, si le permitimos pensar durante más tiempo, su rendimiento sigue aumentando. También entrenamos a ambos modelos para usar herramientas mediante aprendizaje por refuerzo , enseñándoles no solo cómo usarlas, sino también a razonar sobre cuándo usarlas. Su capacidad para implementar herramientas según los resultados deseados los hace más competentes en situaciones abiertas, especialmente aquellas que implican razonamiento visual y flujos de trabajo de varios pasos. Esta mejora se refleja tanto en los puntos de referencia académicos como en las tareas del mundo real, según informaron los primeros evaluadores. Pensar con imágenes Por primera vez, estos modelos pueden integrar imágenes directamente en su cadena de pensamiento. No solo ven una imagen, sino que piensan con ella. Esto abre un nuevo tipo de resolución de problemas que combina el razonamiento visual y textual, lo que se refleja en su rendimiento de vanguardia en pruebas multimodales. Se puede subir una foto de una pizarra, un

Leer más »

Introduciendo GPT-4.1 en la API

Una nueva serie de modelos GPT con mejoras importantes en codificación, seguimiento de instrucciones y contexto largo, más nuestro primer modelo nano. Hoy lanzamos tres nuevos modelos en la API: GPT‑4.1, GPT‑4.1 mini y GPT‑4.1 nano. Estos modelos superan a GPT‑4o y GPT‑4o mini en todos los aspectos, con importantes mejoras en la codificación y el seguimiento de instrucciones. Además, cuentan con ventanas de contexto más amplias (admiten hasta un millón de tokens de contexto) y permiten un mejor uso de dicho contexto gracias a una mejor comprensión de contextos extensos. Presentan un límite de conocimiento actualizado de junio de 2024. GPT‑4.1 destaca en las siguientes medidas estándar de la industria:  Si bien los benchmarks proporcionan información valiosa, entrenamos estos modelos centrándonos en su utilidad en el mundo real. La estrecha colaboración con la comunidad de desarrolladores nos permitió optimizar estos modelos para las tareas más importantes para sus aplicaciones. Para ello, la familia de modelos GPT‑4.1 ofrece un rendimiento excepcional a un coste menor. Estos modelos optimizan el rendimiento en cada punto de la curva de latencia. GPT‑4.1 mini representa un avance significativo en el rendimiento de los modelos pequeños, superando incluso a GPT‑4o en numerosas pruebas de rendimiento. Iguala o supera a GPT‑4o en evaluaciones de inteligencia, a la vez que reduce la latencia casi a la mitad y el coste en un 83 %.  Para tareas que requieren baja latencia, GPT‑4.1 nano es nuestro modelo más rápido y económico disponible. Ofrece un rendimiento excepcional en un tamaño compacto gracias a su ventana de contexto de 1 millón de tokens, y obtiene una puntuación del 80,1 % en MMLU, del 50,3 % en GPQA y del 9,8 % en codificación políglota de Aider, incluso superior a la de GPT‑4o mini. Es ideal para tareas como la clasificación o el autocompletado. Estas mejoras en la fiabilidad del seguimiento de instrucciones y la comprensión de contextos extensos también hacen que los modelos GPT‑4.1 sean considerablemente más eficaces para impulsar agentes o sistemas que pueden realizar tareas de forma independiente en nombre de los usuarios. Al combinarse con primitivas como la API de Respuestas …(se abre en una nueva ventana)Los desarrolladores ahora pueden crear agentes que sean más útiles y confiables en la ingeniería de software del mundo real, extrayendo información de documentos grandes, resolviendo solicitudes de clientes con mínima asistencia y otras tareas complejas.  Tenga en cuenta que GPT‑4.1 solo estará disponible a través de la API. En ChatGPT, muchas de las mejoras en el seguimiento de instrucciones, la codificación y la inteligencia se han incorporado gradualmente a la última versión .(se abre en una nueva ventana)de GPT‑4o y continuaremos incorporando más en futuras versiones.  También comenzaremos a descontinuar la versión preliminar de GPT‑4.5 en la API, ya que GPT‑4.1 ofrece un rendimiento mejorado o similar en muchas funciones clave con un costo y una latencia mucho menores. La versión preliminar de GPT‑4.5 se desactivará dentro de tres meses, el 14 de julio de 2025, para dar tiempo a los desarrolladores para la transición. GPT‑4.5 se presentó como una versión preliminar de investigación para explorar y experimentar con un modelo grande y de alto consumo de recursos, y hemos aprendido mucho de los comentarios de los desarrolladores. Seguiremos incorporando la creatividad, la calidad de escritura, el humor y los matices que nos comentaron que apreciaban en GPT‑4.5 a los futuros modelos de API. A continuación, desglosamos el rendimiento de GPT-4.1 en varios puntos de referencia, junto con ejemplos de evaluadores alfa como Windsurf, Qodo, Hex, Blue J, Thomson Reuters y Carlyle que muestran su rendimiento en producción en tareas específicas del dominio. Codificación GPT-4.1 es significativamente mejor que GPT-4o en una variedad de tareas de codificación, incluidas la resolución de tareas de codificación de manera agente, codificación frontend, realizar menos ediciones extrañas, seguir formatos diff de manera confiable, garantizar el uso constante de la herramienta y más. En SWE-bench Verified, una medida de habilidades reales de ingeniería de software, GPT‑4.1 completa el 54,6 % de las tareas, en comparación con el 33,2 % de GPT‑4o (20/11/2024). Esto refleja mejoras en la capacidad del modelo para explorar un repositorio de código, finalizar una tarea y producir código que se ejecuta y supera las pruebas.GPT-4.1GPT-4o (2024-11-20)OpenAI o1 (high)OpenAI o3-mini (high)GPT-4.5GPT-4.1 miniGPT-4o mini55%33%41%49%38%24%9%SWE‑bench Verified accuracy Para SWE-bench Verified , se asigna a un modelo un repositorio de código y una descripción del problema, y ​​debe generar un parche para solucionarlo. El rendimiento depende en gran medida de las indicaciones y las herramientas utilizadas. Para facilitar la reproducción y contextualización de nuestros resultados, describimos nuestra configuración para GPT‑4.1 aquí .(se abre en una nueva ventana)Nuestras puntuaciones omiten 23 de 500 problemas cuyas soluciones no pudieron ejecutarse en nuestra infraestructura; si se les asigna una puntuación conservadora de 0, la puntuación del 54,6 % se convierte en 52,1 %. Para los desarrolladores de API que buscan editar archivos grandes, GPT‑4.1 es mucho más confiable en las comparaciones de código entre diversos formatos. GPT‑4.1 duplica con creces la puntuación de GPT‑4o en la prueba de comparación de diferencias políglotas de Aider .(se abre en una nueva ventana)e incluso supera a GPT‑4.5 en un 8% absoluto. Esta evaluación mide tanto la capacidad de codificación en varios lenguajes de programación como la capacidad del modelo para producir cambios en formatos completos y diferenciales. Hemos entrenado específicamente a GPT‑4.1 para que siga los formatos diferenciales con mayor fiabilidad, lo que permite a los desarrolladores ahorrar costes y latencia al modificar solo las líneas de salida del modelo, en lugar de reescribir un archivo completo. Para obtener el mejor rendimiento en la comparación de código, consulte nuestra guía de indicaciones .(se abre en una nueva ventana)Para los desarrolladores que prefieren reescribir archivos completos, hemos aumentado el límite de tokens de salida para GPT‑4.1 a 32 768 tokens (en comparación con los 16 384 tokens de GPT‑4o). También recomendamos usar las salidas predichas .(se abre en una nueva ventana)para reducir la latencia de las reescrituras de archivos completos.GPT-4.1GPT-4o (2024-11-20)OpenAI o1 (high)OpenAI o3-mini (high)GPT-4.5GPT-4.1 miniGPT-4.1 nanoGPT-4o mini52% (whole)53% (diff)31% (whole)18% (diff)64% (whole)62% (diff)67% (whole)60% (diff)35% (whole)32% (diff)10% (whole)6% (diff)4% (whole)3% (diff)N/A

Leer más »

Huawei Lanza Cinco Soluciones para Acelerar la Inteligencia Aeronáutica

 Durante la Terminal de Pasajeros Expo 2025 en Madrid, Huawei lanzó cinco soluciones de aviación, en particular el Smart Airport Intelligent Operation Center (IOC) para avanzar en las actualizaciones inteligentes de la industria. Ejecutivos de Huawei, entre ellos el Sr. Dong Fangshuo, Vicepresidente de Smart Transportation BU de Huawei, el Sr. Yang Guojie, Director de Transportation Industry Solution Domain de Data Communication Product Line de Huawei, Eric Liu, Ingeniero Jefe de Huawei Optical Network Business y el Dr. Rachad Nassar, Director de Negocios Globales y Socios Estratégicos de Smart Transportation BU de Huawei, asistió al evento de lanzamiento. Las cinco soluciones reveladas sentarán una base sólida para que la aviación “vaya de banda ancha, vaya a la nube y vaya AI.” Ellos son: Las soluciones reflejan que las TIC han evolucionado de un sistema de apoyo lateral a uno de los sistemas de producción de misión crítica básicos de carga aérea, con la inteligencia en el corazón de la transformación en curso del sector de la aviación. Esta evolución está impulsando a los aeropuertos a repensar cómo asignan recursos y evolucionan hacia aeropuertos inteligentes. Huawei trabaja con socios de aviación para integrar profundamente nuevas tecnologías y crear la arquitectura de gemelos digitales inteligentes que sinergiza la conectividad, la nube, la IA, la informática y las aplicaciones. Esta arquitectura tiene como objetivo mejorar significativamente la eficiencia operativa, el valor comercial, la seguridad y la experiencia del pasajero. Dr. Rachad Nassar, Director de Negocios Globales y Socios Estratégicos de Smart Transportation BU de Huawei, señaló en el evento de lanzamiento que el avance de la aviación se basa en tecnologías digitales e inteligentes. Afirmó que Huawei se compromete a construir aeropuertos más seguros y eficientes que brinden una experiencia perfecta. «En el futuro, colaboraremos con más socios de la industria que tengan las mejores prácticas para establecer un nuevo ecosistema para la innovación y el desarrollo aeroportuario. Juntos, podemos ayudar a los clientes a racionalizar los sistemas industriales existentes, maximizar el potencial de datos y mejorar la productividad dentro del sector de la aviación.» Discurso clave del Dr. Nassar Rachad Durante la exposición, Huawei también mostró su gama de soluciones basadas en escenarios para operaciones, seguridad y servicios aeroportuarios junto con los escenarios operativos de las aerolíneas. Las soluciones garantizan flujos de pasajeros y vuelos sin problemas, mejoran la experiencia de viaje y aumentan la eficiencia operativa tanto de los aeropuertos como de las aerolíneas. Hasta la fecha, más de 210 aeropuertos, aerolíneas y autoridades de gestión del tráfico aéreo de todo el mundo han elegido a Huawei. De cara al futuro, Huawei trabajará con clientes y socios de la industria para construir una base digital e inteligente para la aviación civil, desarrollar aeropuertos inteligentes que sean seguros, ecológicos y amigables con los pasajeros, y acelerar el desarrollo inteligente de la aviación. Para obtener más información sobre la Solución de Aviación Inteligente de Huawei, visite: https://e.huawei.com/en/industries/aviation Huawei News. Traducido al español

Leer más »

Iluminación: Los Beneficios de los Drones en la Generación de Energía

¿Cómo utilizan las compañías energéticas los drones en la generación de energía? ¿Qué problemas pueden resolver los drones? ¡Descubra los beneficios de los drones en energía y vea estudios de casos del mundo real en nuestro blog sobre este tema! Si estás leyendo este artículo, estás involucrado con uno de los mercados más grandes del mundo: el sector energético. Se accede al sitio web de Flyability a través de teléfonos, computadoras portátiles o tabletas, todos los cuales dependen de la electricidad que obtenemos de los sitios de generación de energía. Esta inmensa industria está bajo una presión creciente para satisfacer nuestra demanda insaciable a medida que los humanos usan más energía para moverse, comunicarse y aprender.  ¿Cómo puede el sector energético satisfacer esta demanda? Diversificar las técnicas de generación de energía es una forma, pero optimizar los sistemas existentes invirtiendo en tecnología nueva e innovadora es otra. La nueva tecnología puede ofrecer soluciones emocionantes a viejos problemas, reduciendo el tiempo de inactividad y maximizando las operaciones de producción de energía. Una pequeña herramienta es parte de esta modernización: el humilde dron es uno de los mayores cambios de juego en la generación de energía.  ¿Para qué se utilizan los drones en el sector energético?  Los drones no se utilizarán para generar energía ellos mismos, pero pueden ser un método increíblemente útil para inspeccionar y administrar la infraestructura energética. Al racionalizar las inspecciones, los drones ofrecen a los proveedores de energía una gestión de instalaciones más eficiente. Los drones pueden hacer esto porque generalmente son dispositivos pequeños y maniobrables que pueden equiparse con varias cargas útiles y sensores para recopilar datos críticos en espacios inaccesibles o peligrosos.  ¡Los drones ofrecen inspecciones visuales, mediciones de espesor ultrasónico y capacidades de modelado 3D, entre otras capacidades que mejoran las inspecciones de las instalaciones! Esto facilita la gestión de activos, ya que puede obtener información clara y precisa sobre el estado de un activo, ya sea una caldera o una turbina eólica. Luego puede usar esa información para planificar el trabajo de mantenimiento sin prolongar el tiempo de inactividad. Lo ideal de los drones es que se puedan implementar rápidamente. Por ejemplo, si desea inspeccionar una torre de enfriamiento, es probable que tenga que erigir andamios o usar recolectores de cerezas y enfrentar varios días de inactividad. Un dron puede hacer la inspección en horas, si no minutos, con 0 andamios involucrados, reduciendo drásticamente el tiempo que el activo está fuera de acción y aumentando la eficiencia operativa.  Escaneos LiDAR de un penstock capturado con el dron Elios 3. Usando a ¡drone para inspecciones de penstock reduce los tiempos de inspección en un 80%! Gracias a la flexibilidad de la tecnología de drones, se pueden integrar fácilmente con los horarios de inspección existentes y complementar los procesos actuales. Ya sea que esté ayudando a eliminar el trabajo innecesario en altura en andamios o recopilando datos en un entorno peligroso, como dentro de áreas contaminadas de una planta de energía nuclear, los drones pueden ayudar a responder preguntas sobre el estado de los activos sin poner a las personas en peligro o comprometer la calidad de los resultados. Además de los claros beneficios de los drones de generación de energía relacionados con la seguridad, la velocidad de inspección de las instalaciones y la precisión de los resultados, este es un hecho probado. Los drones no son nuevos: hay docenas de formas de usar drones para inspecciones de generación de energía. Se estima que el mercado de drones solo en el sector energético está valorado en 4.4 mil millones de USD para 2030.  Los desafíos de las inspecciones de generación de energía y cómo los drones los resuelven La generación de energía es un término general para una industria increíblemente variada. Este término abarca instalaciones que incluyen presas de cientos de metros de altura, turbinas eólicas, plantas de energía térmica y reactores nucleares. La enorme infraestructura de esta industria alimenta a millones de hogares, negocios y fábricas, poniéndola bajo una intensa presión. La gestión de estas instalaciones es una tarea gigantesca: incluso pequeñas fallas o interrupciones inesperadas pueden afectar a cientos de miles de personas.  Los peligros típicos de las inspecciones en los activos de generación de energía incluyen la exposición al calor, el trabajo en altura y la entrada a espacios confinados. De hecho, el 20% de todas las lesiones en las plantas de energía térmica en los Estados Unidos son causadas por el trabajo en altura, ya sea a través de caídas o lesiones de materiales caídos.  Las inspecciones de pila generalmente requieren andamios y ropers, pero los drones no requieren ninguno, manteniendo a los equipos seguros en el suelo. Algunos de estos peligros ocurren debido a la naturaleza de los activos que se inspeccionan: para inspeccionar una caldera, las personas tienen que ingresar a la estructura, subir decenas de metros de andamios y entoncesreúna mediciones de espesor visual y ultrasónico (UTM) dentro de él. Para inspeccionar una pila, debe contratar andamios o usar un recolector de cerezas para dar acceso a un inspector a la estructura de la pila. Alternativamente, el acceso a la cuerda a veces es una opción o necesario, y algunas pilas son imposibles de inspeccionar de manera segura con las personas debido a la altura, el espacio confinado y los riesgos de peligro. Eliminar estos peligros a través de inspecciones de drones tiene dos ventajas: en primer lugar, mantiene al personal seguro y, en segundo lugar, a menudo reduce el tiempo total de inspección. La exposición al riesgo humano requiere evaluaciones cuidadosas y protocolos de seguridad adicionales: estos son tan estrictos si envía un dron en lugar de una persona a una zona de peligro.  Los drones se pueden implementar para inspecciones de generación de energía, ya que proporcionan un acceso fácil y seguro a entornos difíciles, desde espacios confinados hasta áreas de contaminación radiactiva. El inspector puede pilotar el dron, y en el caso de un UAV como el Elios 3, pueden recopilar simultáneamente datos visuales y UTM dándoles datos completos

Leer más »

BioMenace Remastered: un remaster del juego de plataformas de acción de Apogee Software llegará a Steam a través de Rigel Gameworks

Apogee Software lanzó algunos grandes juegos en los años 90, juegos como Monster Bash, Bio Menace e incluso nuestro favorito personal Duke Nukem. Bueno, un juego que va a recibir el tratamiento de remasterización, y un juego que muchos de nosotros todavía recordamos hasta el día de hoy, es el juego de 90’s de ‘BioMenace’. Sí, de hecho, para aquellos que amaron jugar este juego en los años 90, les complacerá saber que Rigel Gameworks, un pequeño equipo de desarrollo de juegos independiente, traerá a Steam ‘BioMenace Remastered’ a partir de Q4 2025; un relanzamiento moderno mejorado del juego de DOS BioMenace de 1993. https://www.youtube.com/embed/eoz2Al5ekzU¡Y aquí están los detalles completos del último comunicado de prensa! «Los jugadores asumen el papel de Snake Logan, un agente secreto de la CIA. Su última misión es volar de reconocimiento sobre Metro City, una metrópolis bajo el ataque de hordas de peligrosas criaturas mutadas. Los monstruos fueron enviados por un hombre que se hacía llamar Dr. Mangle, que amenaza con atacar al resto del mundo a menos que se cumplan sus demandas. Después de que el avión de Snakeaks sea derribado y caiga en tierra en la ciudad, se ve obligado a continuar a pie y abrirse paso, rescatando a los sobrevivientes en el camino, todo mientras busca áreas secretas y acumula una puntuación alta».  «En comparación con otros títulos contemporáneos, el juego presenta un arsenal de jugadores único, con una ametralladora de hit-scan (golpe instantáneo) como el arma principal y granadas de mano para el apoyo. La jugabilidad se centra principalmente en el combate y la exploración, con algunos desafíos de plataformas. BioMenace se organiza en tres episodios, cada uno con 12 niveles. Además de luchar contra los enemigos, terminar un nivel a menudo requiere encontrar llaves e interruptores para desbloquear pasajes, así como rescatar a un rehén. Cada episodio presenta entornos distintos, introduce nuevos gráficos, enemigos y música en la mezcla e incluye múltiples peleas de jefes únicas» Se enumeran las siguientes características para la versión remasterizada:  INDIE RETRO News. Traducido al español

Leer más »

Más allá de CAD: Cómo nTop Utiliza la IA y la Computación Acelerada para Mejorar el Diseño del Producto

Una de las ideas clave de Rothenberg ha sido la estrecha correlación que existe entre la iteración a escala y la innovación, especialmente en el ámbito del diseño. Cuando era adolescente, Bradley Rothenberg estaba obsesionado con el CAD: software de diseño asistido por computadora. Antes de cumplir 30 años, Rothenberg canalizó ese interés en la creación de una empresa emergente, nTop , que hoy ofrece a los desarrolladores de productos (de industrias muy diferentes) herramientas rápidas y altamente iterativas que los ayudan a modelar y crear diseños innovadores y a menudo profundamente poco ortodoxos. Una de las ideas clave de Rothenberg ha sido la estrecha correlación que existe entre la iteración a escala y la innovación, especialmente en el ámbito del diseño. También se dio cuenta de que, al crear software de ingeniería para GPU, en lugar de CPU (que impulsaban (y siguen impulsando) prácticamente todas las herramientas CAD), nTop podía aprovechar los algoritmos de procesamiento paralelo y la IA para ofrecer a los diseñadores una iteración rápida y prácticamente ilimitada para cualquier proyecto de diseño. El resultado: oportunidades de innovación prácticamente ilimitadas. Los diseñadores de productos de todo tipo tomaron nota. Una década después de su fundación, nTop, miembro del programa NVIDIA Inception para startups de vanguardia, ahora emplea a más de 100 personas, principalmente en la ciudad de Nueva York, donde tiene su sede, así como en Alemania, Francia y el Reino Unido, con planes de crecer otro 10% para fin de año. Sus herramientas de diseño computacional iteran de forma autónoma junto con los diseñadores, probando diferentes formas virtuales y materiales potenciales para lograr productos, o partes de productos, de alto rendimiento. Es un proceso de ensayo y error a escala. Como diseñador, uno suele tener todos estos objetivos y preguntas contrapuestos: Si hago este cambio, ¿será mi diseño demasiado pesado? ¿Será demasiado grueso? —dijo Rothenberg—. Al realizar un cambio en el diseño, se busca ver cómo afecta al rendimiento, y nTop ayuda a evaluar esos cambios en tiempo real. La cadena de supermercados Ocado, con sede en el Reino Unido, que construye e implementa robots autónomos, es uno de los principales clientes de nTop. Ocado se distingue de otras grandes cadenas de supermercados europeas por su profunda integración de robots autónomos y la selección de productos. Sus robots, del tamaño de una silla de oficina, recorren almacenes gigantescos —casi tan grandes como ocho campos de fútbol americano— a una velocidad de unos 32 km/h, pasando a una distancia de un milímetro entre sí mientras seleccionan y clasifican los productos en estructuras tipo colmena. En los primeros diseños, los robots de Ocado solían averiarse o incluso incendiarse. Su peso también obligaba a Ocado a construir almacenes más robustos y costosos. Utilizando el software de nTop, el equipo de robótica de Ocado rediseñó rápidamente 16 piezas críticas de sus robots, reduciendo su peso total en dos tercios. El rediseño, crucialmente, tardó aproximadamente una semana. Los rediseños anteriores que no utilizaban las herramientas de nTop tardaban unos cuatro meses. “Ocado creó una versión más robusta de su robot, mucho más económica y rápida”, dijo Rothenberg. “Sus diseñadores pasaron por ciclos de diseño rápidos: bastaba con pulsar un botón para que toda la estructura del robot se rediseñara durante la noche con nTop, preparándolo para las pruebas del día siguiente”. El caso de uso de Ocado es típico de cómo los diseñadores utilizan las herramientas de nTop. El software nTop ejecuta cientos de simulaciones que analizan cómo diferentes condiciones podrían afectar el rendimiento de un diseño. La información obtenida de estas simulaciones se incorpora al algoritmo de diseño y todo el proceso se reinicia. Los diseñadores pueden ajustar fácilmente sus diseños según los resultados, hasta que las iteraciones alcancen un resultado óptimo. nTop ha comenzado a integrar modelos de IA en sus cargas de trabajo de simulación, junto con los datos de diseño personalizados de un cliente de nTop en su proceso de iteración. nTop utiliza el marco NVIDIA Modulus , la plataforma NVIDIA Omniverse y las bibliotecas NVIDIA CUDA-X para entrenar e inferir sus cargas de trabajo de computación acelerada y modelos de IA. “Contamos con redes neuronales que pueden entrenarse con la geometría y la física de los datos de una empresa”, afirmó Rothenberg. “Si una empresa tiene una forma específica de diseñar la estructura de un coche, puede construirlo en nTop, entrenar una IA en nTop e iterar rápidamente entre diferentes versiones de la estructura del coche o de cualquier diseño futuro, accediendo a todos los datos con los que el modelo ya está entrenado”. Las herramientas de nTop tienen una amplia aplicabilidad en todas las industrias. Un equipo de diseño de Fórmula 1 utilizó nTop para modelar virtualmente innumerables versiones de disipadores de calor antes de elegir un disipador poco ortodoxo pero de gran rendimiento para su automóvil. Tradicionalmente, los disipadores de calor están hechos de pequeñas piezas uniformes de metal alineadas una al lado de la otra para maximizar la interacción metal-aire y, por lo tanto, el intercambio de calor y el enfriamiento. Los ingenieros iteraron con nTop en un disipador ondulado de varios niveles que maximizaba la interacción aire-metal al mismo tiempo que optimizaba la aerodinámica, lo cual es crucial para las carreras. El nuevo disipador de calor logró tres veces la superficie de transferencia de calor que los modelos anteriores, al tiempo que redujo el peso en un 25%, brindando un rendimiento de enfriamiento superior y una eficiencia mejorada. En el futuro, nTop anticipa que sus herramientas de modelado implícito impulsarán una mayor adopción por parte de los diseñadores de productos que desean trabajar con un “socio” iterativo capacitado en los datos patentados de su empresa. “Trabajamos con numerosos socios que desarrollan diseños, ejecutan numerosas simulaciones con modelos y luego optimizan para obtener los mejores resultados”, afirmó Rothenberg. “Los avances que están logrando hablan por sí solos”. NVIDIA Blog. E. W. Traducido al español

Leer más »

Revolucionando industrias con gemelos digitales impulsados por IA

Los modelos de fundación de IBM Researchis están impulsando versiones simuladas de sistemas complejos, que prometen acelerar el progreso tecnológico. Los gemelos digitales han sido considerados durante mucho tiempo como cambiadores de juego en todas las industrias. Ya sea en automoción y aeroespacial, o en fabricación, redes de energía y logística de la cadena de suministro, estos modelos virtuales de sistemas del mundo real han prometido transformar las operaciones a través de modelos predictivos y análisis en tiempo real. Hasta ahora, sin embargo, la tecnología no ha cumplido su promesa, debido a las limitaciones en el modelado de sistemas físicos complejos con una precisión suficientemente alta. IBM Research está trabajando para cambiar eso. Al aplicar técnicas de modelos básicos desarrolladas originalmente para el procesamiento del lenguaje, nuestros investigadores crearon un marco para construir gemelos digitales impulsados por IA que están totalmente basados en datos, se mejoran a sí mismos y son capaces de predecir con precisión comportamientos complejos del sistema. Este avance tiene amplias implicaciones, con aplicaciones que abarcan múltiples industrias que dependen de simulaciones de alta fidelidad para optimizar el rendimiento, mejorar la seguridad y reducir los costos. Transformar el desarrollo de la batería con gemelos digitales impulsados por IA Una de las aplicaciones más inmediatas e impactantes de este enfoque es en el desarrollo de baterías de vehículos eléctricos (EV). EVs’ rango promedio aproximadamente triplicado entre 2010 y 2021, y su la longevidad ahora es comparable a la de los vehículos con motor de combustión interna. Pero la ansiedad y la incertidumbre sobre la duración de la batería siguen siendo las principales barreras para su adopción más amplia. Los compradores de automóviles aún se preocupan por quedarse sin energía sin acceso a un cargador, y a largo plazo, les preocupa que los paquetes de baterías se degraden o fallen prematuramente. A pesar de las recientes mejoras, puede llevar años desarrollar y probar nuevas baterías que duren más y permitan a los automóviles conducir más lejos. Se está avanzando lentamente para los fabricantes de automóviles de Estados Unidos y Europa, especialmente en comparación con los relativamente plazos de desarrollo rápidos de fabricantes chinos de EV. Sphere Energy, con sede en Augsburg, Alemania, está colaborando con IBM Research para especializarse y validar los gemelos digitales basados en modelos de la fundación IBM para acelerar el desarrollo y las pruebas de baterías EV. Al utilizar simulaciones impulsadas por IA, los fabricantes pueden reemplazar años de pruebas físicas con modelos virtuales de alta precisión que predicen el rendimiento y la degradación de la batería en condiciones reales. En el corazón de la innovación digital gemela están las arquitecturas y técnicas de modelos de IA utilizadas popularmente para los modelos de base de lenguaje – los que se ven en los modelos de lenguaje grandes de hoy en día. Pero mientras que los LLM están capacitados en conjuntos de datos de texto y se implementan en tareas basadas en texto, estos modelos están diseñados para manejar la química compleja y las operaciones de los componentes de la batería. De esta manera, IBM Research y Sphere están colaborando para capacitar a gemelos digitales de baterías EV basados en modelos básicos, que los fabricantes de baterías pueden poner a prueba para recopilar predicciones precisas de rendimiento, seguridad y comportamientos térmicos. Al predecir cientos de ciclos basados en tan solo 50 ciclos iniciales, los gemelos digitales basados en modelos básicos aumentan significativamente el rendimiento de las pruebas en comparación con el enfoque tradicional, donde los fabricantes de EV necesitarían desarrollar físicamente nuevas tecnologías de baterías. Se estima que este avance ahorrará millones de dólares y años de pruebas en carretera, según Sphere. “La ingeniería de baterías se basa en datos, no en lenguaje, por lo que estamos usando modelos de base para simular el siguiente mejor punto de datos en lugar de la siguiente mejor palabra, dijo Lukas Lutz, cofundador de Sphere. Y los resultados de la prueba hablan por sí mismos: Esfera puede predecir dentro de un margen de error del 1% cómo se comportará una batería y la edad cuando el rendimiento comienza a caer de una manera no lineal. “Esto simplemente no era posible antes,” dijo Lutz. “Las simulaciones actuales asumen una decadencia lineal y, por lo tanto, no pueden predecir el importante régimen no lineal.” Ampliando el alcance de los gemelos digitales Con gemelos digitales basados en modelos básicos, Sphere tiene la intención de interrumpir el largo ciclo de desarrollo de la batería. Cuando un fabricante original de equipos de batería quiere fabricar una nueva tecnología de celdas de batería para vender a los fabricantes de automóviles, debe validarla durante varios años en un automóvil. Esta prueba de ciclo de vida estándar de la industria no es un requisito reglamentario, pero es esencial para ver cómo envejece una celda de batería en climas cálidos o fríos, bajo una conducción suave y agresiva, con una carga rápida o lenta — condiciones del mundo real que afectan la rapidez con que envejece una batería. En lugar de realizar pruebas en carretera durante años, los fabricantes de baterías pueden implementar el gemelo digital basado en modelos básicos que simula una amplia gama de condiciones de conducción y modela cómo afectarán a las baterías. En la instalación de pruebas de baterías de Sphereheres en Augsburgo, más de 1.500 celdas de varios tamaños, formatos y productos químicos funcionan 24/7 para proporcionar los datos utilizados para el preentrenamiento del modelo de IA. Hasta la fecha, el modelo fue entrenado con datos de más de 4,000 pruebas. Estos datos se introducen en la arquitectura del modelo de fundación de IBM desarrollada por el equipo de IBM Research para conocer el estado de un dispositivo específico y generar predicciones para varios descriptores. En el caso de las baterías, estos descriptores incluyen voltaje, corriente y capacidad. Específicamente, el modelo gemelo digital se basa en una arquitectura codificador-decodificador basada en bloques de transformadores de vainilla que se extienden para integrar representaciones numéricas.Cuando fue pre-entrenado en Sphereheres amplios conjuntos de datos — que también incluyen metadatos sobre

Leer más »

Cómo NetOps y SecOps Evolution para Resolver el Cumplimiento de la Red está Impulsando la Eficiencia

Desafíos en el Cumplimiento de la Red Las agencias gubernamentales enfrentan desafíos significativos para mantener el cumplimiento de la red debido a la complejidad cada vez mayor de las regulaciones. Desde el NIST 800-53, vulnerabilidades de ciberseguridad, hasta otras guías de requisitos de seguridad como las Guías de Implementación Técnica de Seguridad (STIG) de DISA para el Departamento de Defensa, las medidas integrales requieren la configuración y el mantenimiento de las redes para garantizar que cumplan y sean seguras contra vulnerabilidades y amenazas. Para agravar este problema están los limitados presupuestos y recursos disponibles dentro de las entidades gubernamentales, lo que puede dificultar la asignación de personal y herramientas suficientes para gestionar el cumplimiento de manera efectiva. Además, la necesidad de integrar diversas tecnologías y sistemas heredados complica aún más los esfuerzos de cumplimiento.Estos sistemas a menudo carecen de la flexibilidad necesaria para adaptarse rápidamente a las amenazas nuevas y en evolución, lo que hace que la tarea de lograr y mantener el cumplimiento continuo sea una lucha continua. Las agencias están analizando cómo la automatización y la orquestación pueden ayudar con estos desafíos. Evolución de los equipos NetOps y SecOps La evolución de los equipos de NetOps y SecOps está transformando la forma en que las agencias gubernamentales abordan el cumplimiento y la seguridad de la red. ¿NetOps, DevOps, SecOps confundidos? Ver detalles aquí – ¿Qué es NetOps? Tradicionalmente operando en silos, estos equipos ahora están cada vez más obligados a colaborar y abordar desafíos compartidos. Los equipos de NetOps buscan implementar la automatización y validación de redes continuas para simplificar las operaciones, aumentar la velocidad y la eficiencia para brindar servicios y mejorar el rendimiento y la resiliencia de la infraestructura de red crítica. Los equipos de SecOps están respondiendo constantemente a amenazas en evolución, como vulnerabilidades creadas a partir de errores de configuración, actualizaciones descuidadas y no tener una visibilidad adecuada de la postura de seguridad, lo que retrasa los esfuerzos de respuesta. La Necesidad de Automatización a Escala Se requiere automatización para escalar estos esfuerzos, lo que permite a los equipos administrar de manera eficiente las tareas rutinarias y responder rápidamente a las amenazas a medida que crecen las demandas de la red. Existen muchos desafíos técnicos para automatizar el cumplimiento de la red. Por ejemplo, ¿qué estamos buscando cuando se trata del cumplimiento de la red? Para las redes, estamos validando equipos al final de su vida útil, versiones de código, CVE/PSIRT (Vulnerabilidades Comunes y Exposiciones/Equipos de Respuesta a Incidentes de Seguridad de Productos), guías de Implementación de Seguridad como DoD STIG y estándares de red y organización. Como lo demuestra esta lista de consideraciones de cumplimiento, hay muchos puntos de contacto que hacen que el cumplimiento sea una tarea desafiante y se convierte en un escenario “firefight” donde todos los recursos se enfocan urgentemente para ponerse al día con el cumplimiento antes de la próxima auditoría. En lo que se refiere a las configuraciones de redhay tres patrones en las verificaciones de cumplimiento. Patrones Alrededor del Cumplimiento de la Red Un requisito de cumplimiento dado requiere la evaluación de una configuración de red o un estado de red. Estas comprobaciones generalmente caen en 3 patrones de evaluación: configuración de coincidencia, variables de coincidencia o lógica de negocio de coincidencia. Coincidencias de configuración busque coincidencias exactas en la configuración. Los ejemplos incluyen la desactivación o habilitación de servicios como http o cifrado de contraseña. Coincidencias variables busque coincidencias de sustitución parciales o variables en la configuración. Los ejemplos incluyen validar que se configuran varios servidores NTP (Network Time Protocol) o que los vecinos BGP (Border Gateway Protocol) configurados están utilizando la autenticación. La lógica empresarial coincidebusque patrones definidos organizadamente en la configuración. Los ejemplos incluyen la validación de que una lista de control de acceso de límites se aplica a la interfaz correcta y que bloquea los protocolos definidos por la organización. Este último patrón es el más complejo de implementar y varía ampliamente entre las organizaciones en función de la implementación local de la política requerida. Hoy en día, los equipos de SecOps utilizan sus herramientas de auditoría específicas de dominio para auditar la red y crear informes. Estos informes se comparten con el equipo de NetOps que debe interpretar, traducir a configuraciones de dominio de red y luego implementar el cambio de red. Este largo proceso se repite. La Automatización Permite el Cumplimiento Continuo Imagine una plataforma de automatización de red donde NetOps y SecOps puedan aprovechar las herramientas unificadas para resolver objetivos comunes y permitir auditorías, informes y remediaciones continuas de cumplimiento. Los equipos de seguridad generalmente describen el cumplimiento “intent” en forma de reglas que validan si una configuración de red cumple con los criterios. Los operadores de red tienen que satisfacer no solo estos requisitos de cumplimiento, sino también los requisitos de diseño de red y otros factores al crear una plantilla final que se aplicará a la red. Cisco Crosswork Network Services Orchestrator (NSO) proporciona esta capacidad al permitir a los operadores de red automatizar y administrar redes complejas con facilidad con un motor de cumplimiento integrado para validar el cumplimiento de la red. Ofrece una solución versátil y potente que admite la administración de configuraciones, la orquestación de servicios y la aplicación de políticas en toda la red. Cisco NSO 6.x viene con actualizaciones de cumplimiento significativas, como plantillas de cumplimiento, una interfaz intuitiva de informes de cumplimiento, y continúa introduciendo características para cubrir los patrones anteriores. Cisco NSO tiene API modernas y una base de datos con estado donde el cumplimiento continuo se puede validar en función del estado de la red en tiempo real y se puede informar hasta los sistemas en dirección norte. Cisco NSO también está impulsado por modeloses decir, los modelos de datos y sus intenciones se pueden traducir directamente al estado de implementación previsto en la red. Esto permite un nuevo paradigma para que los equipos de SecOps puedan auditar e informar las verificaciones de cumplimiento con las mismas herramientas y plantillas de configuración que el

Leer más »

Oportunidades de red en el borde de la IA

Avanzamos rápidamente hacia un mundo digital hiperconectado donde la inteligencia artificial (IA) nos ayuda a gestionar, monetizar y materializar datos de forma innovadora.  En mi anterior entrada de blog de esta serie, analicé varias aplicaciones emergentes de IA y su impacto en la evolución de las redes IP. Esta entrada se centra en el papel que pueden desempeñar los proveedores de servicios de red (NSP) y las oportunidades de ingresos que pueden generar para facilitar la entrega de estas aplicaciones de IA de forma rentable y fiable. ¿Dónde está el dinero en la IA? La tecnología de IA evoluciona rápidamente, pero en muchos sentidos aún se encuentra en fase inicial. Hiperescaladores como Apple, Alibaba, Amazon, Google, Meta y Microsoft están invirtiendo miles de millones para construir los enormes centros de datos (y centrales eléctricas) que necesitan para entrenar grandes modelos lingüísticos como ChatGPT, Gemini, Llama y Qwen. Esta es la búsqueda de la inteligencia artificial general (IAG): construir agentes digitales cada vez más inteligentes que puedan replicar capacidades cognitivas humanas como leer, escribir, escuchar, hablar, aprender, razonar, operar máquinas y realizar tareas complejas. Figura 1. La inferencia de IA es esencial para monetizar las inversiones en entrenamiento de IA. Si bien la IA general es fundamental para las interacciones entre humanos y máquinas y para aplicaciones como los chatbots de IA y los asistentes virtuales, el mayor beneficio provendrá de las innumerables aplicaciones que usarán estos modelos de IA previamente entrenados para tareas, funciones y consultas de datos específicas en lo que se denomina «inferencia». Las aplicaciones de consumo, como la edición de fotos y la automatización del hogar inteligente, dependen cada vez más de la IA para interpretar datos privados e inferir decisiones cruciales. Esto mismo ocurre con numerosas aplicaciones en comercio, finanzas, sanidad, manufactura, transporte y seguridad pública. Estas aplicaciones de inferencia favorecen modelos de IA más especializados o «limitados», optimizados para tareas, entornos y conjuntos de datos específicos. Estos modelos limitados requieren menos recursos e incluso pueden funcionar independientemente de la nube en algunos casos. Cerrando la brecha con la nube Actualmente, la lógica de inferencia de IA reside en un centro de datos o en el dispositivo o las instalaciones del usuario. Transferir datos entre los dispositivos del usuario y los centros de datos requiere tiempo, dinero y conlleva riesgos. Además de las limitaciones prácticas de escalabilidad impuestas por las limitaciones de energía y espacio, no queremos que los centros de datos se vuelvan demasiado grandes como para quebrar debido a desastres naturales o provocados por el hombre. Del lado del usuario, existen miles de millones de dispositivos muy diversos y ampliamente dispersos, y miles de organizaciones que podrían beneficiarse de la IA. Sin embargo, es posible que estas organizaciones no siempre cuenten con el hardware o los recursos de TI necesarios, o que aún deban depender de recursos externos de computación y almacenamiento de IA para algunas aplicaciones o funciones (por ejemplo, nube híbrida e inferencia dividida). Alojar cargas de trabajo de inferencia de IA en el borde de la red, entre centros de datos centralizados y dispositivos de usuario, cerrará esta brecha y abordará los siguientes desafíos: Figura 2. Reducir la brecha entre los usuarios y la nube con inferencia de borde de IA A diferencia de los centros de datos centralizados, que deben planificarse y dimensionarse cuidadosamente con antelación para gestionar la demanda prevista, el desarrollo de la nube perimetral con IA puede basarse en gran medida en la demanda. Además, la computación perimetral con IA puede descargar los centros de datos y el tráfico de red mediante el preprocesamiento y la selección de datos sin procesar. Pero la pregunta es: ¿quién la construiría y la operaría? Al borde de un mundo hiperconectado Los proveedores de servicios en la nube (CSP) no pueden conectar fácilmente sus centros de datos en la nube con los usuarios finales por sí solos. Cuentan con la tecnología, pero la mayoría suele recurrir a proveedores de intercambio de colocation de centros de datos (CXP), como Equinix, para alojar sus servidores y así extender su presencia en la nube a grandes metrópolis y ciudades. Ir más allá sería ir demasiado lejos debido a las leyes de soberanía de datos y a los costos insuperables y los desafíos logísticos que supone adquirir, equipar, operar y mantener ubicaciones edge adecuadas a escala global. Los proveedores de servicios de red (NSP) —operadores de telecomunicaciones, operadores de cable y operadores móviles— viven literalmente en la periferia de este mundo digital hiperconectado. Pueden aprovechar su presencia local, activos inmobiliarios, infraestructura de red y servicios profesionales para permitir que los desarrolladores de nubes y los proveedores de infraestructura digital escalen horizontalmente la nube perimetral de IA. La transición de las conexiones de línea de abonado digital (DSL) sobre bucles de cobre tradicionales a las redes ópticas pasivas (PON) sobre fibra óptica está liberando valiosos recursos de espacio y energía en oficinas centrales y distribuidas. Los NSP pueden utilizar estos recursos para alojar infraestructura de servidores de IA para desarrolladores de nubes, socios de infraestructura digital, grandes empresas y para su propio uso privado. En función de sus capacidades y su zona de confort, los proveedores de servicios de educación financiera (PNS) pueden considerar ofrecer una gama de servicios de valor añadido. Por ejemplo, un NSP podría: Impulsar el crecimiento de los ingresos con servicios de inferencia de borde de IA La inferencia de borde con IA presenta enormes oportunidades de crecimiento para los proveedores de servicios de red. La conectividad es un factor clave para la era de la IA, pero por sí sola no será suficiente para aprovechar al máximo su valor en nuestro mundo digital hiperconectado. Participar activamente en el desarrollo de la nube de borde con IA con servicios de alojamiento de valor añadido permitirá a los proveedores de servicios de red monetizar los servicios de conectividad de forma más eficaz. Les permite pasar de ser meros intermediarios a convertirse en facilitadores de servicios de valor añadido que generan nuevas fuentes de ingresos,

Leer más »
Scroll al inicio