El Portal de las Tecnologías para la Innovación

Categoría: Inteligencia Artificial Generativa

Presentamos 4o Image Generation

Desbloqueo de generación de imágenes útiles y valiosas con un modelo multimodal nativo capaz de salidas precisas, precisas y fotorrealistas. En OpenAI, hemos creído durante mucho tiempo que la generación de imágenes debería ser una capacidad principal de nuestros modelos de lenguaje. Es por eso que weiesve construyó nuestro generador de imágenes más avanzado hasta ahora en GPT‑4o. El resultado— generación de imágenes que no solo es hermoso, sino útil. Una imagen amplia tomada con un teléfono de una pizarra de vidrio, en una habitación con vistas al Puente de la Bahía. El campo de visión muestra a una mujer escribiendo, luciendo una camiseta con un gran logotipo OpenAI. La escritura a mano se ve natural y un poco desordenada, y vemos el reflejo del fotógrafo. El texto dice: (izquierda)«Transferencia entre Modalidades: Supongamos que modelamos directamentep(texto, píxeles, sonido) [ecuación]con un gran transformador autorregresivo. Pros:* generación de imágenes aumentada con vasto conocimiento mundial* renderizado de texto de siguiente nivel* aprendizaje nativo en contexto* pila unificada de post-entrenamiento Contras:* variación de la tasa de bits entre modalidades* cómputo no adaptativo» (Derecho)«Arreglos:* representaciones comprimidas modelo* componer prioregresivo con un potente decodificador» En la parte inferior derecha del tablero, dibuja un diagrama:«tokens -> [transformer] -> [difusion] -> pixels»Leer más Lo mejor de 8 vista selfie del fotógrafo, mientras se da vuelta a lo alto cinco él Lo mejor de 8 poesía magnética en una nevera en una casa de mediados de siglo: Línea 1: «Una imagen»Línea 2: «vale la pena»Línea 3: «mil palabras»Línea 4: «pero a veces»Large gapLine 5: «en el lugar correcto»Línea 6: «puede elevar»Línea 7: «su significado. «El hombre sostiene las palabras «unos pocos» en su mano derecha y las «palabras» en su izquierda.Leer más Lo mejor de 5 Haga una imagen de una tira de cuatro‑panel, con un poco de relleno alrededor del borde: Un pequeño caracol está en el mostrador de una llamativa sala de exposición de autos. El vendedor se ha inclinado sobre el escritorio para verlo. Close‑up en el caracol se ve muy serio. Él dice, “quiero tu auto deportivo más rápido… y quiero que pintes una gran letra ‘Ss en las puertas, el capó y el techo.” El vendedor se está rascando la cabeza. “Um… podemos hacer eso, pero ¿por qué los Sing?” Cortar a un rojo borroso rugiendo por la carretera. El auto deportivo está cubierto de Ss gigantes. ¡La gente en la acera está señalando y riendo: “WOW! MIRA ESE S‑CAR GO!”Leer más Lo mejor de ~2 una infografía que explica el experimento del prisma de Newton con gran detalle Lo mejor de 3 ahora genere un POV de una persona dibujando este diagrama en su cuaderno, en una mesa redonda de café en el parque cuadrado de Washington Lo mejor de 2 ahora muestra la misma escena con un joven presumido Isaac Newton sentado a la mesa, con un prisma, demostrando el experimento, sin el cuaderno a la vista Lo mejor de 4 Generación de imágenes útil Desde las primeras pinturas rupestres hasta las infografías modernas, los humanos han utilizado imágenes visuales para comunicarse, persuadir y analizar—, no solo para decorar. Los modelos generativos de hoy en día pueden evocar escenas surrealistas e impresionantes, pero luchan con las imágenes del caballo de batalla que las personas usan para compartir y crear información. Desde logotipos hasta diagramas, las imágenes pueden transmitir un significado preciso cuando se aumentan con símbolos que se refieren al lenguaje y la experiencia compartidos. La generación de imágenes de GPT‑4o sobresale en la representación precisa de texto, siguiendo con precisión las indicaciones, y aprovechando la base de conocimientos inherente de 4oA y el contexto del chat—, incluida la transformación de imágenes cargadas o su uso como inspiración visual. Estas capacidades hacen que sea más fácil crear exactamente la imagen que visualiza, ayudándole a comunicarse de manera más efectiva a través de imágenes y avanzando la generación de imágenes en una herramienta práctica con precisión y potencia. 00:0000:00 00:0000:00 00:0000:00 00:0000:00 00:0000:00 Capacidades mejoradas Capacitamos a nuestros modelos en la distribución conjunta de imágenes y texto en línea, aprendiendo no solo cómo las imágenes se relacionan con el lenguaje, sino cómo se relacionan entre sí. Combinado con el post-entrenamiento agresivo, el modelo resultante tiene una fluidez visual sorprendente, capaz de generar imágenes que son útiles, consistentes y conscientes del contexto. Representación de texto Una imagen vale más que mil palabras, pero a veces generar unas pocas palabras en el lugar correcto puede elevar el significado de una imagen. La capacidad de 4oOs para combinar símbolos precisos con imágenes convierte la generación de imágenes en una herramienta para la comunicación visual.Señales de calleMenúInvitaciónSeñales de calleMenúInvitación Crea una imagen fotorrealista de dos brujas de unos 20 años (un balayage de ceniza, uno con cabello largo y ondulado) leyendo un letrero de calle. Contexto:una calle de la ciudad en una calle aleatoria en Williamsburg, Nueva York con un poste cubierto completamente por numerosas señales detalladas de la calle (por ejemplo, horas de barrido de la calle, permisos de estacionamiento requeridos, clasificaciones de vehículos, reglas de remolque), incluyendo pocas señales ridículas en el medio: (parafrasearlo para hacer estas señales legítimas de la calle)»Estacionamiento de la habitación para Brujas No Permitido en la Zona C» y «Magic Carpet Loading and Unloading Only (15-Minute Limit)» y «Reindeer Parking by Permit Only (Dec 24–25)\n Violators se colocarán en Naughty List.» La señal está a la derecha de una calle. No repita signos. Los signos deben ser realistas. Personajes:una bruja sostiene una escoba y la otra tiene una alfombra mágica enrollada. Están en primer plano, hacia atrás ligeramente girados hacia la cámara y la cabeza ligeramente inclinada mientras examinan las señales. Composición de fondo a primer plano:calles + autos estacionados + edificios -> letrero de calle -> brujas. Los personajes deben estar más cerca de la cámara que toma la fotoLeer más Lo mejor de ~8 Estoy abriendo un restaurante de concepto tradicional en Marin llamado Haein. Se centra en los alimentos coreanos cocinados con ingredientes orgánicos frescos de

Leer más »

Entregando Conectividad Resiliente para IA

Cisco EVP y CPO Jeetu Patel compartieron recientemente cómo los proveedores de servicios e hiperescaladores deben repensar sus arquitecturas para entregar el futuro de la conectividad global en la era de la IA. Mientras nos dirigimos al OFC la próxima semana, la transformación de la IA sin duda será un tema candente, ya que exige cada vez más interconexiones de alta velocidad entre centros de datos—y dentro de centros de datos—que solo la fibra óptica puede proporcionar. La IA está impulsando un aumento masivo en las cargas de trabajo de los centros de datos, y IDC predice que la generación de datos crecerá a una tasa de crecimiento anual compuesta (CAGR) del 40,5% hasta 2027. Gartner espera que el uso de modelos de IA generativos influya en más del 90% de las organizaciones para perseguir entornos de nube híbrida hasta 2027. Optimización de Centros de Datos Listos en IA de Alto Rendimiento El papel del centro de datos a medida que la IA se convierte en una fuerza global generalizada no puede exagerarse. Y, las redes y la interoperabilidad son críticas para escalar la IA. La asociación recientemente ampliada entre Cisco y NVIDIA acelerará la adopción de IA al crear interoperabilidad entre ambas arquitecturas de redes companies’. Esto permite a los clientes estandarizar simultáneamente las redes de Cisco y la tecnología NVIDIA en el centro de datos, optimizando sus inversiones en infraestructura de IA con una arquitectura común y soluciones simplificadas de pila completa. Óptica de cliente de calidad también desempeñan un papel fundamental en el soporte de la transferencia masiva de datos, la baja latencia y la conectividad resistente que exigen las cargas de trabajo de IA. Cisco continúa expandiendo su cartera de ópticas de alta velocidad diseñadas para aplicaciones de IA en redes front-end y back-end, incluidos los módulos OSFP 800G para conectividad de conmutadores AI y los módulos QSFP112 400G para conectividad de servidores AI. Estos módulos se benefician del liderazgo de la tecnología de fotónica de silicio de Cisco que ofrece: El enfoque óptico de Cisco es un destacado de la industria, que combina tecnologías avanzadas, una cartera completa y metodologías de prueba rigurosas, lo que resulta en un rendimiento mejor que los puntos de referencia de la industria. A diferencia de muchos proveedores, Cisco también proporciona una interoperabilidad perfecta en entornos de múltiples proveedores, entregando ópticas que se prueban tanto para Cisco como para plataformas de terceros. Estas calificaciones y una validación estricta dan como resultado un tiempo de inactividad reducido, prevención de interrupciones costosas y un retorno máximo de la infraestructura de IA. Conexión de Centros de Datos Listos para IA A medida que los proveedores de servicios adaptan su red para la IA, adoptar IP y Convergencia Óptica trae beneficios que cambian el juego. Cisco fue pionero en Routed Optical Networking, que ahora es convencional con implementaciones de 300+ con operadores de red, utilidades y grandes empresas. Lumen está revolucionando su arquitectura de Internet para la economía de la IA al aprovechar las Redes Ópticas Enrutadas. Están abordando los desafíos de latencia y costos creando una verdadera arquitectura de múltiples nubes. Puedes aprender más por viendo este video. Con casos de uso ampliados de enlaces de 100G a 800G y alcances de hasta 3000 km, Routed Optical Networking ahora puede abordar el acceso a aplicaciones de ultra larga distancia (ULH) habilitadas por los nuevos módulos conectables coherentes 800G ZR/ZR+ y 400G ULH. Cisco es un líder del mercado en enchufables coherentes, habiendo enviado 500,000 Puertos 400G basado en el Procesador de Señal Digital Greylock. Estamos viendo un gran interés de los proveedores de servicios para 400G ULH con una prueba anunciada por Arelio más de 2.253 km, lo que permite una reducción del 35% en CAPEX y una reducción del 84% en OPEX LightCounting, Google y Meta serán los principales consumidores de 800ZR/ZR+ para redes metropolitanas y regionales. Y, Col recientemente anunció que es el primer proveedor en probar con éxito la óptica enchufable coherente ZR+ 800G de rendimiento mejorado en sus puertos de enrutador de la serie Cisco 8000, en su red de producción. Estas ópticas coherentes basadas en enrutadores Cisco 800G proporcionan la capacidad de duplicar la capacidad central de los paquetes Coltts por enlace, al tiempo que reducen la potencia por bit en un 33,3%.  Arelioseguido de una prueba que demostró la transmisión IP a 800 Gbps en 1.069 kilómetros, proporcionando mayores ahorros de costos que las tecnologías implementadas actualmente. Arquitecturas Distribuidas del Centro de Datos Metro A medida que la capacidad del centro de datos se escala para satisfacer las crecientes demandas de IA, almacenamiento y computación, las arquitecturas del centro de datos del metro se están distribuyendo cada vez más. El resultado es una mayor necesidad de conectividad óptica de un solo tramo y alta capacidad. Cisco ofrece un Sistema de Línea Abierta mejorado para Metro e Interconexión de Centro de Datos que es una solución compacta que combina el sistema de línea con óptica coherente en el galardonado transpondedor NCS 1014. Incluye una nueva tarjeta de línea EDFA, una sonda coherente de banda C sintonizable QSFP-DD OTDR y QSFP-DD alojada en el chasis NCS 1014, optimizada para aplicaciones DCI punto a punto 400ZR y futuras generaciones de transpondedores de mayor velocidad de transmisión para DCI de metro de alto rendimiento, escalable y confiable. Otra nueva capacidad en el NCS 1014 con CIM 8 es la capacidad de los operadores de red para añadir más capacidad en su red existente mediante la utilización de bandas C y L para permitir un aumento dramático en la capacidad total de fibra, mientras que es rentable. Participación Activa de Cisco en la Innovación de Conducción, Redes Abiertas y Estándares de Interoperabilidad Como se mencionó, la IA requiere más redes abiertas e interoperabilidad. Cisco participa activamente en numerosos organismos de estándares y grupos de trabajo, incluyendo OIF, Alianza Ethernet, Óptica Conectable Lineal MSA, y Alianza del Centro de Datos Cuánticos—ayuda a avanzar en nuevas tecnologías, colaborar con otras organizaciones y mejorar las redes abiertas y la interoperabilidad. En OFC, Cisco demostrará interoperabilidad en las últimas plataformas de enrutamiento de Cisco, óptica del cliente

Leer más »

Un sistema de predicción meteorológica totalmente impulsado por IA podría iniciar una revolución en la previsión meteorológica

Un nuevo sistema de predicción meteorológica con inteligencia artificial, desarrollado por investigadores de la Universidad de Cambridge, puede ofrecer pronósticos precisos diez veces más rápido y utilizando miles de veces menos potencia de procesamiento que los sistemas de pronóstico actuales basados ​​en IA y física. El sistema, Aardvark Weather, cuenta con el apoyo del Instituto Alan Turing, Microsoft Research y el Centro Europeo de Pronósticos Meteorológicos a Medio Plazo. Ofrece un modelo para un nuevo enfoque de la predicción meteorológica con el potencial de transformar las prácticas actuales. Los resultados se publican en la revista Nature . “Aardvark reinventa los métodos actuales de predicción meteorológica, ofreciendo la posibilidad de realizar pronósticos meteorológicos más rápidos, económicos, flexibles y precisos que nunca, contribuyendo así a transformar la predicción meteorológica tanto en países desarrollados como en desarrollo”, afirmó el profesor Richard Turner, del Departamento de Ingeniería de Cambridge, quien dirigió la investigación. “Aardvark es miles de veces más rápido que todos los métodos de predicción meteorológica anteriores”. Los pronósticos meteorológicos actuales se generan mediante un complejo conjunto de etapas, cada una de las cuales tarda varias horas en ejecutarse en potentes supercomputadoras. Además del uso diario, el desarrollo, el mantenimiento y la utilización de estos sistemas requieren una inversión considerable de tiempo y grandes equipos de expertos. Más recientemente, investigaciones de Huawei, Google y Microsoft han demostrado que un componente del proceso de predicción meteorológica, el solucionador numérico (que calcula la evolución del tiempo), puede sustituirse por IA, lo que resulta en predicciones más rápidas y precisas. Esta combinación de IA y enfoques tradicionales la utiliza actualmente el Centro Europeo de Previsiones Meteorológicas a Medio Plazo (CEPMPM). Pero con Aardvark, los investigadores han reemplazado todo el proceso de predicción meteorológica con un único y sencillo modelo de aprendizaje automático. El nuevo modelo incorpora observaciones de satélites, estaciones meteorológicas y otros sensores, y genera pronósticos globales y locales. Este enfoque totalmente impulsado por IA significa que las predicciones que antes se producían utilizando muchos modelos (cada uno de los cuales requería una supercomputadora y un gran equipo de soporte para su ejecución) ahora se pueden producir en minutos en una computadora de escritorio. Al utilizar tan solo el 10 % de los datos de entrada de los sistemas existentes, Aardvark ya supera al sistema nacional de pronóstico GFS de Estados Unidos en numerosas variables. Además, es competitivo con los pronósticos del Servicio Meteorológico de Estados Unidos, que utilizan información de docenas de modelos meteorológicos y análisis de expertos. “Estos resultados son solo el comienzo de lo que Aardvark puede lograr”, afirmó la primera autora, Anna Allen, del Departamento de Ciencias de la Computación y Tecnología de Cambridge. “Este enfoque de aprendizaje integral puede aplicarse fácilmente a otros problemas de predicción meteorológica, como huracanes, incendios forestales y tornados. Más allá del clima, sus aplicaciones se extienden a la predicción del sistema terrestre en general, incluyendo la calidad del aire, la dinámica oceánica y la predicción del hielo marino”. Los investigadores afirman que uno de los aspectos más interesantes de Aardvark es su flexibilidad y diseño sencillo. Dado que aprende directamente de los datos, puede adaptarse rápidamente para generar pronósticos a medida para industrias o ubicaciones específicas, ya sea para predecir temperaturas para la agricultura africana o velocidades del viento para una empresa de energías renovables en Europa. Esto contrasta con los sistemas tradicionales de predicción meteorológica, donde la creación de un sistema personalizado requiere años de trabajo por parte de grandes equipos de investigadores. “Los sistemas de pronóstico del tiempo en los que todos confiamos se han desarrollado durante décadas, pero en solo 18 meses hemos podido construir algo que es competitivo con los mejores de estos sistemas, utilizando solo una décima parte de los datos de una computadora de escritorio”, dijo Turner, quien también es investigador principal de predicción del tiempo en el Instituto Alan Turing. Esta capacidad tiene el potencial de transformar la predicción meteorológica en los países en desarrollo donde el acceso a la experiencia y los recursos computacionales necesarios para desarrollar sistemas convencionales normalmente no está disponible. “Liberar el potencial de la IA transformará la toma de decisiones para todos, desde los responsables políticos y los planificadores de emergencias hasta las industrias que dependen de pronósticos meteorológicos precisos”, afirmó el Dr. Scott Hosking, del Instituto Alan Turing. “El avance de Aardvark no se trata solo de velocidad, sino también de acceso. Al trasladar la predicción meteorológica de las supercomputadoras a las computadoras de escritorio, podemos democratizar la predicción, poniendo estas potentes tecnologías a disposición de los países en desarrollo y las regiones con escasez de datos en todo el mundo”. “Aardvark no habría sido posible sin décadas de desarrollo de modelos físicos por parte de la comunidad, y estamos especialmente agradecidos a ECMWF por su conjunto de datos ERA5, que es esencial para el entrenamiento de Aardvark”, dijo Turner. “Es fundamental que el mundo académico y la industria colaboren para abordar los desafíos tecnológicos y aprovechar las nuevas oportunidades que ofrece la IA”, afirmó Matthew Chantry, del ECMWF. “El enfoque de Aardvark combina la modularidad con la optimización integral de la previsión, garantizando así un uso eficaz de los conjuntos de datos disponibles”. “Aardvark no solo representa un logro importante en la predicción meteorológica mediante IA, sino que también refleja el poder de la colaboración y de unir a la comunidad investigadora para mejorar y aplicar la tecnología de IA de maneras significativas”, afirmó el Dr. Chris Bishop, de Microsoft Research. Los próximos pasos para Aardvark incluyen el desarrollo de un nuevo equipo dentro del Instituto Alan Turing dirigido por Turner, que explorará el potencial de implementar Aardvark en el sur global e integrará la tecnología en el trabajo más amplio del Instituto para desarrollar pronósticos ambientales de alta precisión para el clima, los océanos y el hielo marino. Referencia:Anna Allen, Stratis Markou et al. « Predicción meteorológica integral basada en datos ». Nature (2025). DOI: 10.1038/s41586-025-08897-0 Universidad de Cambridge News. Traducido al español

Leer más »

Impulsando el descubrimiento científico con IA

El premio Nobel y ex alumno de Cambridge Sir Demis Hassabis anuncia una nueva era de descubrimiento de fármacos de ‘velocidad digital’ Sir Demis Hassabis, premio Nobel y ex alumno de Cambridge, cree que estamos entrando en una nueva era de «biología digital», donde la IA puede ayudarnos a reimaginar los principios del descubrimiento de fármacos a «velocidad digital». Hablando en un evento especial en Cambridge, para explorar cómo la IA puede acelerar el descubrimiento científico, el director ejecutivo y cofundador de Google DeepMind también dijo que, a pesar del auge de la computación cuántica, los sistemas informáticos clásicos aún tienen el potencial de hacer avanzar el conocimiento mediante la IA y algún día podrían incluso ayudarnos a descubrir la verdadera naturaleza de la realidad. Demis, quien el año pasado recibió el Premio Nobel de Química junto con su colega de Google DeepMind, el Dr. John Jumper, por sus contribuciones a la investigación en IA para la predicción de la estructura de las proteínas, dijo a los estudiantes y ex alumnos de Cambridge que la IA era potencialmente el «lenguaje de descripción perfecto para la biología». “Actualmente, desarrollar un fármaco lleva un promedio de 10 años, y es extraordinariamente caro: miles de millones de dólares”, dijo. “Y entonces me pregunto: ¿por qué no podemos usar estas técnicas para reducir ese tiempo de años a meses? ¿Quizás incluso, un día, semanas? Igual que redujimos el descubrimiento de las estructuras de las proteínas de potencialmente años a minutos y segundos”. Durante su charla en el Babbage Lecture Theatre, donde contó a los invitados que asistió a su primera conferencia como estudiante hace casi 30 años, Demis relató su carrera e investigación en IA hasta ahora, y también brindó visiones fascinantes de cómo podría evolucionar la tecnología, incluido el desarrollo de la Inteligencia Artificial General, un sistema de IA teórico que puede hacer los mismos tipos de tareas cognitivas que un humano puede hacer. Dijo: «Cambridge es un lugar increíble. De hecho, ha inspirado toda mi carrera, y espero que haga lo mismo con muchos de ustedes, estudiantes, aquí presentes». Tras graduarse en Cambridge, donde estudió Ciencias de la Computación en el Queens’ College en la década de 1990, cofundó DeepMind en 2010, una empresa que desarrolló modelos magistrales de IA para juegos populares. La empresa fue vendida a Google en 2014 y, dos años después, DeepMind cobró reconocimiento mundial al lograr lo que muchos consideraban el santo grial de la IA: vencer al campeón de uno de los juegos de mesa más antiguos del mundo, el Go. “Mi trayectoria en la IA comenzó con los juegos, y en concreto con el ajedrez”, dijo. “Jugaba al ajedrez desde los cuatro años y me hizo reflexionar sobre el pensamiento mismo: ¿cómo se nos ocurren estos planes, estas ideas, cómo resolvemos problemas y cómo podemos mejorar? Lo que me fascinó, quizás incluso más fascinante que los juegos, fueron los procesos mentales que lo sustentan”. Este interés continuó cuando se pasó al ajedrez por computadora. «Recuerdo que me fascinaba que alguien hubiera programado este trozo de plástico inanimado para que realmente jugara ajedrez contra ti. Y terminé experimentando en mi adolescencia con un ordenador Amiga 500 y desarrollando ese tipo de programas de IA para jugar juegos como Othello. Y realmente, esa fue mi primera experiencia con la IA, y decidí desde muy joven que dedicaría toda mi carrera a intentar ampliar las fronteras de esta tecnología». Los videojuegos eran el «campo de pruebas perfecto» para los sistemas de IA, afirmó. Y tras crear sistemas de aprendizaje —inspirados en la neurociencia— que dominaban el catálogo de juegos de Atari, y desarrollar el programa informático AlphaGo que derrotó al campeón mundial de Go, Lee Sedol, centró su atención en la ciencia. Sentí que estábamos listos, teníamos las técnicas lo suficientemente maduras y listas para ser aplicadas fuera del juego y para intentar abordar problemas realmente importantes. El plegamiento de proteínas (predecir la estructura tridimensional de una proteína a partir de su secuencia de aminoácidos) fue un excelente ejemplo. Las proteínas son los componentes básicos de la vida, y se cree que su función está relacionada con su estructura. Por lo tanto, conocer la estructura de una proteína podría contribuir al descubrimiento de fármacos y a la comprensión de enfermedades. Los científicos llevaban al menos 50 años trabajando en este desafío cuando, en noviembre de 2020, el Experimento Comunitario sobre la Evaluación Crítica de Técnicas para la Predicción de la Estructura de Proteínas (CASP) declaró que la herramienta AlphaFold2 de DeepMind lo había resuelto. DeepMind utilizó AlphaFold2 para plegar los 200 millones de proteínas conocidas por la ciencia y puso el sistema y estas estructuras a disposición de todos. “Es como mil millones de años de doctorado en un solo año”, dijo Demis. “Y es asombroso pensar en cuánto se podría acelerar la ciencia. Dos millones de investigadores de prácticamente todos los países del mundo lo utilizan. Ha sido citado más de 30.000 veces y se ha convertido en una herramienta estándar en la investigación biológica”. Siempre creí que la IA general podría ser la herramienta definitiva para comprender el universo que nos rodea y nuestro lugar en él.– Sir Demis Hassabis Demis recibió conjuntamente el Premio Nobel de Química el año pasado en reconocimiento a los importantes avances que hizo posible AlphaFold2 . Y debido a que estas estructuras biológicas existen en gran parte de la vida en la Tierra, dijo que se han abierto nuevas vías de exploración en una amplia gama de campos, incluidos el clima, la agricultura, las enfermedades y el descubrimiento de fármacos. “La misión de DeepMind desde el principio fue desarrollar IA de manera responsable para beneficiar a la humanidad, pero la forma en que solíamos articularlo cuando comenzamos era un proceso de dos pasos: paso 1: resolver la Inteligencia Artificial, paso 2: usarla para resolver todo lo demás. Si analizo todo el trabajo que hemos realizado en los últimos 15 años, primero nuestro trabajo en juegos y ahora con el trabajo

Leer más »

¿Puede la inteligencia artificial ser frugal?

Ante la emergencia climática y la probada crisis ambiental, la inteligencia artificial a menudo se percibe como una herramienta clave para optimizar nuestros usos y reducir nuestra huella de carbono. Pero en realidad es una parte integral del problema y tiene una huella preocupante. Presentada como un motor de optimización y sobriedad, ¿podría la inteligencia artificial empeorar paradójicamente la crisis ambiental? Detrás de sus promesas de eficiencia, esconde una huella de energía y hardware colosal. El rápido aumento de la IA en los últimos años se ha basado en una infraestructura hambrienta de energía a gran escala. La capacitación de los modelos más avanzados necesita miles de millones de cálculos, lo que requiere una potencia informática considerable. La huella de carbono de estos sistemas se basa en dos componentes clave: la potencia necesaria para ejecutarlos y los recursos físicos necesarios para fabricar componentes informáticos. En Francia, el sector digital ya representa el 10% del consumo eléctrico, con un crecimiento anual estimado de entre el 6 y el 9%. A nivel mundial, lo digital contribuye al 4% de las emisiones de CO2, aumentando constantemente desde 2010. “Dos fases son particularmente hambrientas de recursos: modelos de entrenamiento, que pueden requerir varios meses de computación intensiva en plataformas que consumen hasta 30 megavatios continuamente, e inferencia, es decir, el uso de estos modelos, que representa un gasto de energía aún mayor en el caso de la IA generativa,” explica Denis Trystram, investigador de LIG* y profesor de Grenoble INP – Ensimag, UGA. “Por ejemplo, entrenar a los modelos más grandes requiere aproximadamente 1026 operaciones, es decir, el equivalente a varios meses’ uso continuo de las plataformas más grandes.” Además del consumo eléctrico, la IA requiere una cantidad considerable de materias primas. La fabricación de chips y componentes electrónicos requiere metales raros que son caros de extraer en términos de energía y agua. Al mismo tiempo, la producción y operación del centro de datos aumentan la presión sobre los recursos hídricos además de su consumo eléctrico. El análisis del ciclo de vida de los servicios de IA es a menudo incompleto, teniendo en cuenta solo los efectos directos, sin considerar los efectos de rebote o los impactos sistémicos. Frugalidad digital: ¿una ilusión? Aunque la IA puede contribuir a reducir ciertos niveles de consumo para aplicaciones específicas, por ejemplo, optimizando la eficiencia térmica de buildings’, estas ganancias a menudo se cancelan por el aumento exponencial de su uso. La infraestructura con eficiencia energética mejorada no es suficiente para compensar la expansión continua de la infraestructura. Este fenómeno, comúnmente conocido como el efecto de rebote, plantea la cuestión de los beneficios ecológicos genuinos de la IA.Se están explorando ciertas áreas potenciales para hacer que la IA sea más frugal: usar centros de datos impulsados por energías renovables, desarrollar algoritmos menos hambrientos de computación, mejorar la eficiencia de los componentes electrónicos, etc. Pero estas soluciones no cuestionan el crecimiento desenfrenado de estas tecnologías. Por ejemplo, si la IA se utiliza para reducir las emisiones de carbono, podría alentar indirectamente un mayor consumo de otros recursos (como el consumo de agua o la extracción de metales), cancelando los beneficios obtenidos. Para Denis Trystram, la verdadera pregunta a plantear es sobre los usos. “¿Realmente necesitamos todo lo que estamos desarrollando? Esta pregunta va más allá de las ciencias duras para las ciencias humanas, como la sociología, la filosofía y la economía. Pero estos aspectos aún no se tienen suficientemente en cuenta en la investigación sobre inteligencia artificial.”  Repensando el futuro Los investigadores son cada vez más conscientes de los límites planetarios y la necesidad urgente de tomar medidas, pero la implementación de soluciones prácticas sigue siendo compleja. La digitalización de nuestras sociedades actúa como un sistema en expansión incontrolable, impulsado por el mito del crecimiento ilimitado, y absorbiendo otros sistemas sin pensar en la necesidad de los usos desarrollados. La inteligencia artificial ha transformado nuestras formas de buscar información e interactuar con el mundo. Desde la aparición de los chatbots en 2022, se ha observado una disminución significativa en el tráfico tradicional de Internet, una señal de que estas herramientas están reemplazando cada vez más las búsquedas tradicionales. Pero este cambio no garantiza una mejora cualitativa del conocimiento producido. La IA se basa en modelos probabilísticos cuyos resultados deben verificarse, y la falta de transparencia de estos mecanismos de generación a menudo plantea dudas sobre la confiabilidad de la información proporcionada. “Si no se establece una regulación estricta, nos dirigimos hacia la saturación de recursos y el empobrecimiento de los datos utilizados para entrenar la IA. A largo plazo, estos modelos podrían basarse únicamente en el contenido generado por otros AIis, creando un círculo vicioso donde la información se deteriora progresivamente.” Denis Trystram utiliza una imagen fuerte para resumir la situación: la aceleración de nuestros estilos de vida, dopada por el progreso tecnológico, reduce el comportamiento humano al de un hámster, condenado a correr cada vez más rápido sin cuestionar la dirección del viaje. ¿Es posible la IA frugal? Sí, siempre que bajemos de esta rueda y adoptemos un enfoque que los lugares necesiten antes del rendimiento. Grenoble INP – UGA News. Traducido al español

Leer más »

¿Puede la IA hambrienta de energía ayudar a reducir nuestro uso de energía?

ChatGPT necesita diez veces más electricidad para responder a un mensaje que para que Google realice una búsqueda estándar. Aún así, los investigadores están luchando para comprender las implicaciones energéticas de la inteligencia artificial generativa tanto ahora como en el futuro. Pocas personas se dan cuenta de que la huella de carbono de la tecnología digital está a la par con la de la industria aeroespacial, representando entre el 2% y el 4% de las emisiones globales de carbono. Y esta huella de carbono digital se está expandiendo a un ritmo rápido. Cuando se trata del uso de energía, los aproximadamente 11,000 centros de datos en operación hoy consumen tanta energía como lo hizo todo el país de Francia en 2022, o alrededor de 460 TWh por año. ¿La adopción generalizada de IA generativa hará que esas cifras se disparen? La nueva tecnología afectará claramente la cantidad de energía que se consume en todo el mundo, pero exactamente cómo es difícil de cuantificar. “Necesitamos saber el costo total de los sistemas de IA generativa para poder usarlos de la manera más eficiente posible,” dice Manuel Cubero-Castan, gerente de proyecto en TI sostenible en EPFL. Él cree que debemos considerar todo el ciclo de vida de la tecnología de IA generativa, desde la extracción de minerales y el ensamblaje de componentes – actividades cuyo impacto concierne no solo a la energía – hasta la eliminación de las toneladas de desechos electrónicos que se generan, que a menudo se vierten ilegalmente. Desde esta perspectiva, las ramificaciones ambientales de la IA generativa van mucho más allá del consumo de energía y agua de los centros de datos. El costo de la capacitación Por ahora, la mayoría de los datos disponibles sobre el uso de energía de la tecnología digital se relacionan solo con los centros de datos. Según la Agencia Internacional de Energía (AIE), estos centros (excluyendo las redes de datos y la minería de criptomonedas) consumieron entre 240 TWh y 340 TWh de energía en 2022, o del 1% al 1.3% del total global. Sin embargo, a pesar de que el número de centros está creciendo en un 4% por año, su uso general de energía no cambió mucho entre 2010 y 2020, gracias a la energíamejoras de eficiencia. Con la IA generativa establecida para ser adoptada a gran escala, eso ciertamente cambiará. La tecnología de IA generativa se basa en modelos de lenguaje grande (LLM) que utilizan la energía de dos maneras. Primero, mientras están siendo entrenados –, un paso que implica ejecutar terabytes de datos a través de algoritmos para que aprendan a predecir palabras y oraciones en un contexto dado. Hasta hace poco, este era el paso más intensivo en energía. En segundo lugar, mientras procesan datos en respuesta a un mensaje. Ahora que los LLM se están implementando a gran escala, este es el paso que requiere la mayor cantidad de energía. Datos recientes de Meta y Google sugieren que este paso ahora representa del 60% al 70% de la potencia utilizada por los sistemas de IA generativa, frente al 30% al 40% para la capacitación. Consulta ChatGPT vs búsqueda convencional de Google Una consulta ChatGPT consume alrededor de 3 Wh de potencia, mientras que una búsqueda convencional en Google utiliza 0.3 Wh, según la AIE. Si todas las aproximadamente nueve mil millones de búsquedas de Google realizadas diariamente se cambiaran a ChatGPT, eso aumentaría el requisito de potencia total en 10 TWh por año. Goldman Sachs Research (GSR) estima que la cantidad de electricidad utilizada por los centros de datos aumentará en un 160% en los próximos cinco años, y que representará del 3% al 4% del uso mundial de electricidad. Además, sus emisiones de carbono probablemente se duplicarán entre 2022 y 2030. Según las cifras de la AIE, la demanda total de energía en Europa disminuyó durante tres años seguidos, pero aumentó en 2024 y debería volver a los niveles de 2021 – unos 2,560 TWh por año – para 2026. Casi un tercio de este aumento se debe a los centros de datos.GSR estima que la demanda de energía relacionada con la IA en los centros de datos crecerá en aproximadamente 200 TWh por año entre 2023 y 2030. Para 2028, la IA debería representar casi el 19% del consumo de energía de data centers’. Si comenzamos a utilizar la tecnología de IA generativa a gran escala, con LLM cada vez más grandes, las ganancias de energía resultantes estarán lejos de ser suficientes para lograr una reducción en las emisiones generales de carbono.Manuel Cubero-Castan, gerente de proyectos de TI Sostenible en EPFL Sin embargo, la rápida expansión de la IA generativa podría poner mal estos pronósticos. La compañía china DeepSeek ya está sacudiendo las cosas – introdujo un programa generativo de IA a fines de enero que usa menos energía que sus contrapartes de Estados Unidos tanto para entrenar algoritmos como para responder a las indicaciones. Otro factor que podría detener el crecimiento de la demanda de energía de IA es la cantidad limitada de recursos mineros disponibles para producir chips. Nvidia actualmente domina el mercado de chips AI, con una cuota de mercado del 95%. Los tres millones de chips Nvidia H100 instalados en todo el mundo utilizaron 13.8 TWh de potencia en 2024 – la misma cantidad que Guatemala. Para 2027, los chips Nvidia podrían quemar entre 85 y 134 TWh de potencia. ¿Pero la compañía podrá producirlos a esa escala? No siempre es una elección sostenible Otro factor a considerar es si nuestras redes eléctricas envejecidas podrán soportar la carga adicional. Muchos de ellos, tanto a nivel nacional como local, ya están siendo empujados al límite para satisfacer la demanda actual. Y el hecho de que los centros de datos a menudo se concentren geográficamente complica aún más las cosas. Por ejemplo, los centros de datos representan el 20% del consumo de energía en Irlanda y más del 25% en el estado de Virginia en los Estados Unidos. “Construir centros de datos

Leer más »

SeaPerch: Un robot con una misión

Lanzado por MIT Sea Grant, SeaPerch y SeaPerch II han tenido un gran impacto en los jóvenes estudiantes interesados en la ciencia e ingeniería oceánicas. El robot submarino SeaPerch es una herramienta educativa popular para estudiantes en los grados 5 a 12.  La construcción y pilotaje de SeaPerch, un vehículo operado a distancia (ROV), implica una variedad de procesos de fabricación manual, técnicas electrónicas y conceptos STEM. A través del programa SeaPerch, los educadores y estudiantes exploran estructuras, electrónica y dinámica submarina.   “SeaPerch ha tenido un tremendo impacto en los campos de la ciencia e ingeniería oceánica,” dice Andrew Bennett ’85, PhD ’97, administrador de educación de MIT SeaGrant y profesor titular en el Departamento de Ingeniería Mecánica (MechE). El proyecto original SeaPerch fue lanzado por MIT Sea Grant en 2003. En las décadas que siguieron, se extendió rápidamente por todo el país y en el extranjero, creando una vibrante comunidad de constructores. Ahora, bajo el liderazgo de RoboNation, SeaPerch continúa prosperando con competiciones en todo el mundo. Estas competiciones introducen desafiantes problemas del mundo real para fomentar soluciones creativas. Algunos temas recientes han incluido la minería en alta mar y la recopilación de datos sobre respiraderos hidrotermales. Reproducir videoUn robot submarino con una misiónVideo: Departamento de Ingeniería Mecánica SeaPerch II, que ha estado en desarrollo en MIT Sea Grant desde 2021, se basa en el programa original al agregar robótica y elementos de la ciencia marina y climática. Sigue siendo un proyecto de creación de “do-it-yourself” con objetivos que los estudiantes de secundaria y preparatoria pueden lograr. Bennett dice que espera que SeaPerch II permita un impacto aún mayor al proporcionar un camino accesible para aprender más sobre sensores, robótica, ciencia del clima y más. “Lo que creo que es más valioso es que utiliza componentes de ferretería que deben cortarse, impermeabilizarse, conectarse, soldarse o procesarse de alguna manera antes de formar parte del robot o controlador, dice Diane Brancazio ME ” 90, líder del equipo de fabricantes de K-12 para el MIT Edgerton Center, quien codirige la iniciativa MIT SeaPerch con Bennett. “[Itits] algo así como hacer un pastel desde cero, en lugar de hacerlo desde una mezcla — ves lo que entra en el producto final y cómo todo se combina.” SeaPerch II es una familia de módulos que permiten a los estudiantes y educadores crear aventuras educativas adaptadas a sus deseos o requisitos particulares. Las ofertas incluyen un módulo de detección de presión y temperatura que se puede usar por sí solo; un módulo de autonomía que los estudiantes pueden usar para construir un sistema de control de profundidad automático de circuito cerrado para su SeaPerch; y un módulo de lección para “dedos robóticos suaves que se pueden configurar en pinzas, sensores de distancia y sensores de golpes. El SeaPerch básico es una estructura de tubería de PVC con tres motores y una correa para una caja de interruptores. A través del proceso de construcción, los estudiantes aprenden sobre flotabilidad, diseño estructural, fabricación manual y circuitos eléctricos. SeaPerch II aprovecha las tecnologías que son más avanzadas, menos costosas y más accesibles de lo que eran cuando SeaPerch fue concebido por primera vez. Bennett dice que SeaPerch II está destinado a extender el programa original de SeaPerch sin invalidar ninguno de los sistemas existentes. Teagan Sullivan, estudiante de tercer año en ingeniería mecánica, se involucró por primera vez con el proyecto en enero de 2023 a través de un proyecto del Programa de Oportunidades de Investigación de Pregrado con MIT Sea Grant. Inicialmente, continuó el desarrollo de la parte de robótica suave del proyecto, antes de cambiar a un enfoque más general donde trabajó en el diseño de marcos para SeaPerch II, asegurándose de que los componentes pudieran encajar y que la estabilidad pudiera mantenerse. Más tarde ayudó a ejecutar programas de divulgación, recibiendo comentarios de los estudiantes con los que trabajó para ayudar a modificar diseños y hacerlos “más robustos y amigables para los niños “He podido ver el impacto de SeaPerch II a pequeña escala trabajando directamente con los estudiantes,” dice Sullivan. “He visto cómo fomenta la creatividad y cómo les ha enseñado a los niños que la colaboración es el mejor camino hacia el éxito. SeaPerch II enseña los conceptos básicos de electrónica, codificación y fabricación, pero su mejor fortaleza es la capacidad de desafiar la forma en que las personas piensan y fomentan el pensamiento crítico La visión del equipo es crear oportunidades para que los jóvenes participen en investigaciones científicas auténticas y desafíos de ingeniería, desarrollando una pasión por la ingeniería, la ciencia y el medio ambiente acuático. MIT Sea Grant continúa desarrollando nuevos módulos SeaPerch II, que incluyen la incorporación de sensores de oxígeno disuelto, salinidad y comunicación de agua terrestre y fluorómetros. Sullivan dice que espera que el programa llegue a más estudiantes y los inspire a interesarse en la ingeniería mientras enseñan las habilidades que necesitan para ser la próxima generación de solucionadores de problemas. Brancazio dice que espera que este proyecto inspire y prepare a los jóvenes para trabajar en temas de cambio climático. “Se supone que los robots ayudan a las personas a hacer cosas que de otro modo no podrían hacer,” Brancazio dice. “SeaPerch es un robot con una misión.” MIT News. A. W. Traducido al español

Leer más »

La herramienta digital brinda a los niños con TDAH comentarios en tiempo real sobre sus cerebros

En un estudio reciente de una técnica para ayudar a los niños con TDAH a fortalecer su memoria de trabajo, aproximadamente la mitad de los participantes mostraron mejoras en sus síntomas. El concepto también es prometedor para otras afecciones neuropsiquiátricas. Después de que los maestros explican una tarea, los niños con trastorno por déficit de atención/hiperactividad podrían tener dificultades para convertir esas instrucciones en acción. Es una de las varias vías por las cuales el TDAH puede afectar el rendimiento académico de un estudiante joven. “Cuando escuchas algo de un maestro, necesitas mantener la información en tu cerebro, luego procesarla y tomar decisiones basadas en lo que escuchaste,” dijo el neurocientífico cognitivo de Stanford Medicine Hosseini Hadi, PhD. Estos pasos requieren que los estudiantes involucren su memoria de trabajo, un sistema cerebral que contiene información durante cortos períodos de tiempo. Cuando el sistema no funciona, puede causar frustración tanto para los propios niños como para los maestros, padres y otras personas que intentan ayudarlos a aprender tareas y actividades normales, como terminar una tarea o recordar traer su abrigo del patio de recreo. El equipo de Hosseiniinis ha sido estudiando una técnica para ayudar a los niños con TDAH a fortalecer su memoria de trabajo. Las últimas investigaciones fueron dirigidas por Hosseini Ali Rahimpour Jounghani, PhD, un erudito postdoctoral en psiquiatría, y Gozdas Elveda, PhD, un instructor en psiquiatría y ciencias del comportamiento. El trabajo de los equipos muestra que una herramienta portátil de imágenes cerebrales de bajo costo puede proporcionar a los niños comentarios en tiempo real sobre lo que sus cerebros están haciendo durante las tareas cognitivas. Los niños llevaban una gorra especial en la cabeza que envía y recibe luz infrarroja, lo que permite a los investigadores rastrear los niveles de oxígeno en la sangre en partes específicas de su cerebro como un indicador de la actividad cerebral. El grupo de tratamiento de 21 niños que completaron el programa de 12 semanas se comparó con 15 niños en un grupo de control, que recibieron su tratamiento habitual para el TDAH. La mayoría de los niños con TDAH que completaron el programa mejoraron su capacidad para realizar tareas que requerían memoria de trabajo. Alrededor de la mitad de ellos también tuvieron mejoras en los síntomas del TDAH, según lo medido por un cuestionario estándar. El concepto también es prometedor para otras afecciones neuropsiquiátricas, dijo Hosseini, profesor asociado de psiquiatría y ciencias del comportamiento en Stanford Medicine, quien habló con nosotros para obtener preguntas y respuestas sobre su investigación. ¿Por qué su equipo decidió estudiar la memoria de trabajo en niños con TDAH? Weisre está tratando de abordar los déficits en la función ejecutiva, el proceso por el cual manejamos las tareas cotidianas, incluida la planificación, la toma de decisiones y el aprendizaje. Los déficits de la función ejecutiva aparecen en muchas afecciones de salud mental, como el autismo, la depresión y el trastorno obsesivo compulsivo. La memoria de trabajo es un gran componente del funcionamiento ejecutivo: Posee temporalmente una cantidad limitada de información en su cerebro para que pueda atenderla de la manera correcta. Los sistemas neuronales involucrados en la memoria de trabajo se ven afectados en la mayoría de los niños con TDAH. Además, la neurociencia moderna considera el TDAH como un problema más de regulación de la atención que un déficit de atención, per se, y la memoria de trabajo es importante para regular la atención. Esto significa que el TDAH fue un punto de partida lógico para probar nuestra intervención. También es una buena condición para estudiar porque es bastante común, y porque los científicos tienen una fuerte comprensión de la arquitectura neuronal que se ve afectada. La investigación de neuroimagen ha demostrado hipoactivación – o subactividad – en la corteza prefrontal de personas con TDAH. Estábamos tratando de ayudar a los niños a aumentar su actividad cerebral en esa región, que se encuentra en la parte frontal del cerebro y está involucrada en muchos tipos de pensamiento complejo y toma de decisiones. Con los niños específicamente, la verdadera promesa aquí radica en la oportunidad de intervenir temprano para cambiar la trayectoria de su neurodesarrollo.”Hadi Hosseini, PhDStanford Medicine neurocientífico cognitivo ¿Cuál fue tu proceso de investigación? Nuestro estudio utilizó neurofeedback, lo que significa brindar a las personas información en tiempo real de imágenes cerebrales para que puedan crear estrategias conscientemente e intentar controlar su función cerebral. Una idea paralela es la biorretroalimentación –, por ejemplo, donde medimos qué tan rápido late tu corazón y te mostramos estrategias para calmarlo. Al comienzo de nuestro estudio, escaneamos el cerebro de cada niño para poder identificar en qué parte de su corteza prefrontal tenían una baja activación. Hay mucha variación entre las personas con TDAH, por lo que identificamos una región objetivo personalizada para cada paciente. Para cada sesión de la intervención, cada niño estaba equipado con una tapa especial en la cabeza que envía y recibe luz infrarroja. Esto permitió al equipo de investigación monitorear lo que estaba sucediendo en el cerebro infantil a través de una técnica llamada espectroscopia funcional de infrarrojo cercano, en la que la luz viaja a mitad de camino hacia el cerebro y medimos cómo se refleja. Esto da una visión de los cambios en los niveles de oxígeno en la sangre en áreas específicas del cerebro, lo que indica cambios en la actividad cerebral. La desventaja de usar este método de imagen es que puede observar regiones subcorticales en las profundidades del cerebro. Pero la corteza prefrontal, donde ocurre la memoria de trabajo, en realidad es bastante accesible a la luz infrarroja. Los niños en nuestro estudio vinieron al laboratorio durante 12 sesiones, cada una durante unos 20-30 minutos de intervención activa. Una vez conectados a la tapa de imagen, realizaron una tarea de memoria durante la cual vieron una cadena de letras en la pantalla de una computadora y la memorizaron durante unos segundos, luego vieron una letra de destino y tuvieron que indicar si estaba en la cadena original. Durante la tarea, proporcionamos

Leer más »

Facilitar la fricción de la oficina híbrida con soluciones de IA

Lenovo desarrolló una plataforma Digital Workplace Solution (DWS) impulsada por IA para aliviar la carga de los departamentos de TI al tiempo que mejora la experiencia general de los empleados. ¿Cuál es el mejor modelo de trabajo para el negocio en el que trabaja? Hace unos pocos años, esta no era una pregunta que merecía mucha consideración: los trabajadores de oficina viajaban a su lugar de trabajo todos los días de la semana y los pensamientos de un acuerdo alternativo eran casos marginales. Hoy, sin embargo, este es un tema apremiante que está siendo considerado por los equipos de liderazgo de todo el mundo. Cuatro años después de los bloqueos iniciales relacionados con la pandemia, muchas organizaciones todavía están experimentando con diferentes modelos a medida que enfrentan realidades económicas difíciles. Mientras que algunos han ordenado un retorno completo a la oficina para fomentar la colaboración en persona, otros han adoptado configuraciones completamente remotas, aprovechando las tecnologías en la nube para permitir que los empleados trabajen desde cualquier lugar. La mayoría de las organizaciones se sientan en algún punto intermedio entre lo que ahora se han convertido en los dos extremos de los libros del debate en el lugar de trabajo. Hybrid está aquí para quedarse Lo que está claro es que alguna forma de lugar de trabajo híbrido se ha convertido en el enfoque más popular, combinando la flexibilidad del trabajo remoto con las ventajas de la interacción en persona. En muchos sentidos, este modelo se ha convertido en una característica definitoria del mundo laboral moderno. Para 2024, solo 31% de los empleados corporativos en los Estados Unidos se les exigió trabajar en la oficina a tiempo completo, una disminución interanual del 11%. La proporción de empleados europeos que trabajan desde casa al menos un día a la semana tiene se mantuvo en el 60% desde 2022. Los empleados aprecian la autonomía, la capacidad de acomodar las demandas familiares y del hogar, y el ahorro de costos, mientras que las empresas se benefician de mantener oportunidades de colaboración cuando sea necesario y mejora de la moral de los empleados. Si bien la mayoría de los empleados disfrutan de los beneficios, la oficina híbrida presenta desafíos significativos para los departamentos de TI. Tradicionalmente, los dispositivos y la infraestructura se han administrado in situ y los administradores de TI han podido ver e interactuar directamente con su infraestructura. Con las configuraciones híbridas, los equipos de TI ahora deben manejar dispositivos de forma remota, incorporar usuarios desde lejos y garantizar espacios de trabajo digitales seguros para los equipos distribuidos. La carga de trabajo híbrida adicional para los departamentos de TI Un lugar de trabajo híbrido exitoso depende en gran medida de las herramientas digitales para la comunicación y la colaboración. Las videoconferencias, el hardware de escritorio en caliente y las tecnologías de la sala de reuniones son esenciales para los empleados que alternan entre el hogar y la oficina. La gestión de este ecosistema en crecimiento agrega presión a los departamentos de TI, a menudo dejando poco espacio para la innovación o la planificación a largo plazo. Investigaciones recientes encontraron que 60% de los líderes de TI según los informes, carecen de un plan claro para adoptar tecnologías de próxima generación como la IA, mientras que los empleados gastan actualmente un promedio de 23 minutos por díaresolución de problemas técnicos. Estas interrupciones, aunque aparentemente menores, pueden acumularse rápidamente, reduciendo la productividad y aumentando la tensión en TI. Esta dicotomía muestra que los equipos de TI se encuentran, el tiempo que pasan manejando los problemas existentes ya es insuficiente para mantenerse al tanto de las cosas, y mucho menos encontrar el tiempo para explorar nuevas áreas e introducir nuevas capacidades. A medida que el trabajo híbrido se convierte en la norma, los departamentos de TI desempeñan un papel crucial para garantizar su éxito. Deben gestionar entornos tecnológicos complejos y distribuidos, al tiempo que fomentan la innovación y mantienen la seguridad. Necesitan soporte para la doble carga que enfrentan, automatizando algunos de los procesos necesarios para mantener los sistemas de TI en funcionamiento para que los equipos de TI puedan tener el espacio para desarrollar nuevos sistemas que ofrezcan una mayor productividad, un menor tiempo de inactividad del dispositivo y mejoren la experiencia de los empleados.. Uso de IA para liberar la innovación del equipo de TI Para abordar estos desafíos, Lenovo ha desarrollado una IA impulsada Solución Digital de Lugar de Trabajo (DWS) plataforma para aliviar la carga de los departamentos de TI al tiempo que mejora la experiencia general de los empleados. La plataforma, llamada Cuidado de UnoTMagiliza las operaciones, reduce las interrupciones técnicas y brinda a los empleados más control sobre sus entornos de trabajo. La plataforma comprende una gama de soluciones que automatizan los procesos manuales que consumen mucho tiempo y brindan a los usuarios finales una experiencia de TI personalizada y sin fricción. Lenovo Device Intelligence (LDI) Plus es una de las herramientas que ayudan a los equipos de TI a administrar dispositivos en entornos híbridos. LDI Plus automatiza las actualizaciones de parches, monitorea el estado del dispositivo e identifica problemas potenciales antes de que se intensifiquen. Este enfoque proactivo minimiza el tiempo de inactividad y reduce las frustraciones de los empleados al mantener los dispositivos operativos, independientemente de la ubicación. Lenovo también está transformando el compromiso de los empleados a través de su servicio de asistencia de autoservicio impulsado por IA. El servicio de asistencia permite a los empleados solucionar problemas y administrar las actualizaciones de dispositivos de forma independiente utilizando un lenguaje natural. Al traer patrones de uso al Cuidado del Uno plataforma, el servicio de asistencia puede hacer coincidir a los usuarios con una persona y ofrecer recomendaciones personalizadas para las optimizaciones de dispositivos. Esto permite a los empleados resolver los procesos comunes de los dispositivos por su cuenta, reduciendo la necesidad de intervención de TI. Cada una de las soluciones basadas en IA de Lenovoova permite a los equipos de TI asignar tiempo para impulsar la transformación digital e implementar nuevas tecnologías en lugar de estar vinculados

Leer más »
Scroll al inicio