El Portal de las Tecnologías para la Innovación

Categoría: Nube e Infraestructura como Servicio

Lo que viene en el futuro en IA comienza aquí

Experimente la Conferencia de IA de GTC del 17 al 21 de marzo en San José, California GTC regresará a San José del 17 al 21 de marzo de 2025. Únase a miles de desarrolladores, innovadores y líderes empresariales para experimentar cómo la IA y la computación acelerada están ayudando a la humanidad a resolver nuestros desafíos más complejos. Desde la conferencia principal imprescindible del CEO de NVIDIA, Jensen Huang, hasta más de 1000 sesiones inspiradoras, más de 300 exhibiciones, capacitación técnica práctica y toneladas de eventos de networking únicos, GTC es el lugar para explorar ejemplos del mundo real de IA y sus beneficios. El catálogo de sesiones ya está abierto. Explora y crea tu agenda ahora. NVIDIA News. Traducido al español

Leer más »

Por qué una decisión arquitectónica tomada hace décadas está obstaculizando el poder de la computación con IA

La mayoría de las computadoras se basan en la arquitectura de von Neumann, que separa el cómputo de la memoria. Esta disposición ha sido perfecta para la computación convencional, pero crea un atasco de tráfico de datos en la computación de IA. La computación con inteligencia artificial tiene fama de consumir enormes cantidades de energía. Esto se debe, en parte, al gran volumen de datos que se manejan. El entrenamiento suele requerir miles de millones o billones de datos para crear un modelo con miles de millones de parámetros. Pero esa no es la única razón: también se debe a cómo se construyen la mayoría de los chips informáticos. Los procesadores de las computadoras modernas son bastante eficientes a la hora de realizar los cálculos discretos que suelen tener encomendados. Aunque su eficiencia cae en picado cuando deben esperar a que los datos se muevan de un lado a otro entre la memoria y el cómputo, están diseñados para cambiar rápidamente a trabajar en alguna tarea no relacionada. Pero en el caso de la computación con IA, casi todas las tareas están interrelacionadas, por lo que a menudo no hay mucho más trabajo que se pueda hacer cuando el procesador se queda atascado esperando, dijo el científico de IBM Research Geoffrey Burr. En ese escenario, los procesadores se encuentran con lo que se denomina el cuello de botella de von Neumann, el retraso que se produce cuando los datos se mueven más lento que el cómputo. Es el resultado de la arquitectura de von Neumann, presente en casi todos los procesadores de las últimas seis décadas, en la que la memoria y las unidades de cómputo de un procesador están separadas, conectadas por un bus. Esta configuración tiene ventajas, entre ellas la flexibilidad, la adaptabilidad a cargas de trabajo variables y la capacidad de escalar sistemas y actualizar componentes fácilmente. Eso hace que esta arquitectura sea ideal para la informática convencional y no desaparecerá en un futuro próximo. Pero en el caso de la computación con inteligencia artificial, cuyas operaciones son simples, numerosas y altamente predecibles, un procesador convencional termina trabajando por debajo de su capacidad máxima mientras espera que los pesos de los modelos se transfieran de un lado a otro desde la memoria. Los científicos e ingenieros de IBM Research están trabajando en nuevos procesadores, como la familia AIU , que utilizan diversas estrategias para superar el cuello de botella de von Neumann y potenciar la computación con inteligencia artificial. ¿Por qué existe el cuello de botella de von Neumann? El cuello de botella de von Neumann recibe su nombre del matemático y físico John von Neumann, que en 1945 hizo circular por primera vez un borrador de su idea de un ordenador con programa almacenado. En ese artículo, describía un ordenador con una unidad de procesamiento, una unidad de control, una memoria que almacenaba datos e instrucciones, almacenamiento externo y mecanismos de entrada/salida. Su descripción no mencionaba ningún hardware específico, probablemente para evitar problemas de seguridad con el ejército de los EE. UU., para el que trabajaba como consultor. Sin embargo, casi ningún descubrimiento científico es realizado por una sola persona, y la arquitectura de von Neumann no es una excepción. El trabajo de von Neumann se basó en el trabajo de J. Presper Eckert y John Mauchly, que inventaron el Integrador Numérico Electrónico y el Ordenador (ENIAC), el primer ordenador digital del mundo. Desde que se escribió ese artículo, la arquitectura de von Neumann se ha convertido en la norma. “La arquitectura de von Neumann es bastante flexible, esa es la principal ventaja”, afirmó el científico de IBM Research Manuel Le Gallo-Bourdeau. “Es por eso que se adoptó por primera vez y por eso sigue siendo la arquitectura predominante en la actualidad”. Las unidades de memoria y computación discretas permiten diseñarlas por separado y configurarlas más o menos como se desee. Históricamente, esto ha facilitado el diseño de sistemas informáticos porque se pueden seleccionar y combinar los mejores componentes en función de la aplicación. Incluso la memoria caché, que está integrada en un único chip junto con el procesador, se puede actualizar de forma individual. “Estoy seguro de que el diseño de una nueva memoria caché tiene consecuencias para el procesador, pero no es tan difícil como si estuvieran acopladas”, afirma Le Gallo-Bourdeau. “Siguen estando separadas. Esto permite cierta libertad a la hora de diseñar la caché por separado del procesador”. Cómo el cuello de botella de von Neumann reduce la eficiencia Para la computación de IA, el cuello de botella de von Neumann crea un doble problema de eficiencia: la cantidad de parámetros de modelo (o pesos) que se deben mover y la distancia a la que deben moverse. Más pesos de modelo significan mayor almacenamiento, lo que generalmente significa almacenamiento más distante, dijo la científica de IBM Research Hsinyu (Sidney) Tsai. «Dado que la cantidad de pesos de modelo es muy grande, no se puede permitir el lujo de mantenerlos durante mucho tiempo, por lo que es necesario descartarlos y recargarlos constantemente», dijo. El principal gasto de energía durante el tiempo de ejecución de la IA se destina a transferencias de datos, es decir, a trasladar los pesos de los modelos de la memoria a los cálculos. En comparación, la energía que se gasta en realizar cálculos es baja. En los modelos de aprendizaje profundo, por ejemplo, las operaciones son casi todas problemas de multiplicación de matrices y vectores relativamente simples. La energía de cálculo sigue representando alrededor del 10 % de las cargas de trabajo de la IA moderna, por lo que no es despreciable, dijo Tsai. «Simplemente se ha descubierto que ya no domina el consumo de energía y la latencia, a diferencia de las cargas de trabajo convencionales», agregó. Hace aproximadamente una década, el cuello de botella de von Neumann no era un problema importante porque los procesadores y la memoria no eran tan eficientes, al menos en comparación con la energía que se gastaba en transferir datos, dijo Le Gallo-Bourdeau. Pero la eficiencia

Leer más »

Optimización del rendimiento de Qwen2.5-Coder con decodificación anticipada NVIDIA TensorRT-LLM

Para promover el desarrollo de LLM de código abierto, el equipo de Qwen lanzó recientemente Qwen2.5-Coder, una familia de LLM avanzados para la generación, el razonamiento y la corrección de código en lenguajes de programación populares. Los modelos de lenguaje grande (LLM) que se especializan en codificación se han adoptado de manera constante en los flujos de trabajo de los desarrolladores. Desde la programación en pareja hasta los agentes de IA que se mejoran a sí mismos , estos modelos ayudan a los desarrolladores con diversas tareas, como mejorar el código, corregir errores, generar pruebas y escribir documentación. Para promover el desarrollo de LLM de código abierto, el equipo de Qwen lanzó recientemente Qwen2.5-Coder, una familia de LLM avanzados para la generación, el razonamiento y la corrección de código en lenguajes de programación populares. Esta publicación explora los beneficios de las optimizaciones de inferencia para los modelos Qwen2.5-Coder compatibles con NVIDIA TensorRT-LLM y la facilidad de implementación con NVIDIA NIM para lograr potencial transformador y eficiencia de codificación. Modelos de codificadores Qwen2.5 Los modelos Qwen2.5-Coder han logrado un rendimiento de vanguardia en los puntos de referencia académicos más populares. NVIDIA TensorRT-LLM ha optimizado tres modelos populares de la familia Qwen2.5-Coder (las versiones 1.5B, 7B y 32B) para lograr un alto rendimiento y una baja latencia. TensorRT-LLM es una biblioteca para una inferencia LLM rápida y eficiente e incluye optimizaciones como procesamiento por lotes dinámico en vuelo , almacenamiento en caché KV , reutilización de caché KV y varias técnicas de decodificación especulativa, entre otras.  Estas optimizaciones ayudan a ofrecer mejoras de rendimiento para los modelos Qwen2.5-Coder en lenguajes de programación populares como Python, C++, Java, Bash, Javascript, TypeScript y Go, llegando a una gama más amplia de desarrolladores. Esta publicación explora la optimización de la decodificación anticipada y el aumento de rendimiento que ayuda a lograr. Sin ninguna capacitación adicional ni necesidad de modelos de borrador adicionales, los desarrolladores pueden aprovechar la API de alto nivel TensorRT-LLM para acelerar la inferencia de Qwen2.5-Coder para generar la finalización automática de código de varias líneas. Descodificación anticipada La decodificación anticipada es una técnica de decodificación especulativa que aborda la naturaleza autorregresiva lenta de los LLM. Cada paso de decodificación autorregresiva solo genera un token a la vez, sin aprovechar la enorme potencia de procesamiento en paralelo de las GPU NVIDIA, lo que genera una baja utilización de la GPU y un menor rendimiento. Anteriormente, analizamos el aumento del rendimiento que se puede lograr con la decodificación especulativa de destino preliminar y aquí analizamos los beneficios de aprovechar la implementación de la decodificación anticipada TensorRT-LLM utilizando los modelos Qwen2.5-Coder como ejemplo. A diferencia de la generación de un solo token en la decodificación autorregresiva, la decodificación anticipada genera múltiples tokens simultáneamente, utilizando adecuadamente las capacidades de procesamiento paralelo de la GPU y aprovechando los cálculos (FLOP) para reducir la latencia. Además, la decodificación anticipada no requiere un modelo de borrador independiente que se necesita para la decodificación especulativa de destino de borrador.  Cada paso de decodificación se divide en dos ramas paralelas, la rama de anticipación y la rama de verificación. Utilizando el método de iteración de Jacobi , un solucionador de sistemas no lineales clásico, la rama de anticipación realiza una decodificación paralela para tokens futuros mediante la generación de n-gramas. La rama de verificación selecciona y verifica los candidatos de n-gramas prometedores generados por la rama de anticipación. El algoritmo de anticipación se configura utilizando tres parámetros clave: tamaño de ventana (W), tamaño de n-gramas (N) y tamaño del conjunto de verificación (G).  El rendimiento de la búsqueda anticipada depende en gran medida del modelo base, el hardware, el tamaño del lote, la longitud de la secuencia y el conjunto de datos. Se recomienda crear perfiles de varias configuraciones para encontrar la mejor configuración (W, N, G) dada la configuración. La configuración óptima de tuplas (W, N, G) permite que la decodificación anticipada brinde un rendimiento mejorado sin la necesidad de capacitación adicional, ajustes finos o modelos preliminares.  A través de nuestros experimentos sobre el barrido de valores de configuración (W, N, G), logramos aumentos de velocidad de 3,6x y 1,6x en el rendimiento para los modelos Qwen2.5-Coder 7B Instruct y Qwen2.5-Coder 32B Instruct, respectivamente. Estos aumentos de velocidad se miden en rendimiento (tokens/segundo) en comparación con la línea base (sin decodificación especulativa de anticipación) en GPU NVIDIA H100 Tensor Core , como se muestra en la Figura 2.  Datos medidos el 30/01/2025. Aceleraciones del rendimiento de inferencia (tokens de salida/segundo) de los modelos Qwen2.5-Coder 7B Instruct y Qwen2.5-Coder 32B Instruct. DGX H100, TP=1 | (W, N, G) = (8, 8, 8) | Qwen2.5-Coder 7B Instruct, TP=2 | (W, N, G) = (15, 15, 15) | Qwen2.5-Coder-32B-Instruct, tamaño de lote=1, TensorRT-LLM versión 0.15.0.  Se logran aceleraciones de rendimiento similares en las GPU NVIDIA H200 Tensor Core . Con su mayor ancho de banda de memoria, también ayudan a aumentar el rendimiento de rendimiento de referencia, lo que genera aceleraciones ligeramente inferiores en comparación con las GPU H100 (Figura 3). Datos medidos el 30/01/2025. Aceleraciones del rendimiento de inferencia (tokens de salida/segundo) de los modelos Qwen2.5-Coder 7B Instruct y Qwen2.5-Coder 32B Instruct. DGX H200, TP=1 | (W, N, G) = (8, 8, 8) | Qwen2.5-Coder 7B Instruct, TP=2 | (W, N, G) = (15, 15, 15) | Qwen2.5-Coder 32B Instruct, tamaño de lote=1, TensorRT-LLM versión 0.15.0. Pasos para ejecutar la decodificación anticipada con TensorRT-LLM Para reproducir estas mejoras de rendimiento mediante la decodificación especulativa anticipada dentro de TensorRT-LLM, siga los pasos a continuación. # Install TensorRT-LLM. (Commands below are for Linux. Refer to TensorRT-LLM docs for Windows)sudoapt-get -y installlibopenmpi-dev && pip3 install–upgrade setuptools && pip3 installtensorrt_llm –extra-index-url https://pypi.nvidia.com Luego, ejecute la decodificación anticipada en TensorRT-LLM utilizando la API de alto nivel.  # Command for Qwen2.5-Coder-7B-Instructfromtensorrt_llm importLLM, SamplingParamsfromtensorrt_llm.llmapi import(LLM, BuildConfig, KvCacheConfig, LookaheadDecodingConfig, SamplingParams)defmain():    «»»The end user can customize the build configuration with the build_config class. # Max draft length is based on (W,N,G) values and calculated as: (W + G -1) * (N-1) + ( N<=1 ? 0: N-2)»»»    build_config =BuildConfig(max_batch_size =128,max_input_len =2048, max_seq_len =4096,max_num_tokens =16384, max_draft_len =111)    build_config.plugin_config.reduce_fusion =True    build_config.plugin_config.use_paged_context_fmha =True    build_config.plugin_config.multiple_profiles =True        # The configuration for lookahead decoding    lookahead_config =LookaheadDecodingConfig(max_window_size=8,                                               max_ngram_size=8,                                              max_verification_set_size=8)        kv_cache_config =KvCacheConfig(free_gpu_memory_fraction=0.4)    llm =LLM(model=»Qwen/Qwen2.5-Coder-7B-Instruct»,              kv_cache_config=kv_cache_config,              build_config=build_config,              speculative_config=lookahead_config)        prompt =»»»Write

Leer más »

Cisco muestra simplicidad, seguridad y preparación para la IA en Cisco Live Amsterdam

Cisco (NASDAQ: CSCO), el líder mundial en redes y seguridad, presenta tecnologías innovadoras, asociaciones y programas de capacitación a los más de 17 000 profesionales de TI que asisten a su evento tecnológico insignia en la región EMEA (Europa, Oriente Medio y África). Resumen de noticias: CISCO LIVE EMEA, ÁMSTERDAM, 11 de febrero de 2025 — Cisco (NASDAQ: CSCO), el líder mundial en redes y seguridad, presenta tecnologías innovadoras, asociaciones y programas de capacitación a los más de 17 000 profesionales de TI que asisten a su evento tecnológico insignia en la región EMEA (Europa, Oriente Medio y África). Cisco Live EMEA ofrece a los clientes una visión clara de cómo la empresa puede ayudar a simplificar la TI frente a la creciente complejidad y un plan para adoptar y utilizar la IA de forma segura para potenciar sus negocios. “Cisco se encuentra en una posición privilegiada para ayudar a guiar a nuestros clientes a través del increíble cambio que estamos viendo en estos momentos en todas las industrias”, afirmó Oliver Tuszik, presidente de Cisco para Europa, Oriente Medio y África. “Desde la naturaleza cambiante del lugar de trabajo hasta la revolución de la IA en los centros de datos y la infraestructura de red, y la necesidad de resiliencia digital en todos los niveles, Cisco tiene soluciones para los mayores desafíos de nuestros clientes”.  Un estudio reciente de Cisco sobre los CEOs destaca el dilema que enfrentan hoy los clientes mientras se preparan para el impacto de la IA. Más del 70 % de los CEOs compartieron sus preocupaciones sobre perder terreno frente a los competidores y perder oportunidades debido a las brechas de TI y de infraestructura. Reconocieron la necesidad de invertir en la capacitación en IA y en la mejora de las habilidades de la fuerza laboral, junto con las inversiones en tecnología. Los CEOs también reconocieron la importancia de contar con socios de confianza, y el 96 % afirmó que dependen de ellos para ayudar a preparar sus redes para la IA en el futuro. Simplicidad, seguridad y preparación para la IA En toda su cartera, Cisco se compromete a crear soluciones que simplifiquen las operaciones, incorporen seguridad en todos los niveles y brinden a los clientes la tecnología que necesitan para adoptar la IA. “Hoy en día, todas las empresas trabajan horas extra para comprender las oportunidades y los desafíos que supone adaptar su forma de trabajar y atender a los clientes en la era de la IA”, afirmó Jeetu Patel, vicepresidente ejecutivo y director de productos de Cisco. “En Cisco, nuestra misión es dar forma activamente a este futuro y ayudar a nuestros clientes de todo el mundo a triunfar. De eso tratan las innovaciones en redes, seguridad, centros de datos y más que presentamos en Cisco Live EMEA. Nuestros clientes necesitan socios de confianza para afrontar este cambio y nosotros estamos respondiendo a esa llamada”.   Hoy, Cisco presentó y ofrece innovaciones impactantes en toda su gama de productos, que incluye: Resolviendo los desafíos de la IA La cartera de Cisco ofrece a los clientes y socios soluciones para acelerar la adopción de la IA, pero aún quedan desafíos por resolver. Cisco, que reconoce la necesidad de abordar los desafíos de eficiencia energética que imponen las cargas de trabajo de la IA, así como la brecha cada vez mayor de habilidades que se ha desarrollado debido al panorama de la IA en constante evolución, ha presentado nuevas alianzas y programas en Cisco Live EMEA. Experiencia del cliente basada en IA Cisco también anunció el primer Agente de IA desarrollado conjuntamente a partir de su asociación estratégica con Mistral AI, uno de los principales proveedores de soluciones de IA de Europa. El Agente de Renovaciones de IA mejora y agiliza en gran medida el proceso de creación de propuestas de renovación en Cisco al consolidar datos estructurados y no estructurados de más de 50 señales y fuentes y brindar análisis de sentimientos en tiempo real, recomendaciones resumidas, automatización inteligente y personalización, todo ello vinculado a los resultados del cliente y los indicadores clave de rendimiento (KPI). El nuevo agente es la última innovación de IA para la organización de Experiencia del Cliente (CX) de Cisco y continúa demostrando cómo Cisco está cumpliendo con su visión de usar IA para hacer que cada experiencia del cliente sea personalizada, proactiva y predictiva, y brindar resultados únicos que superen las expectativas de los clientes. * Fuente: Prioridades de inversión en el lugar de trabajo y videoconferencias, Frost and Sullivan, octubre de 2024 CISCO News. Traducido al español

Leer más »

CoDa marca una nueva era para la informática y la ciencia de datos en Stanford

El nuevo edificio está diseñado para estimular la creatividad entre estudiantes, profesores e investigadores. “Cuando cambias el espacio físico, tiendes a cambiar la forma de pensar”. Como La informática y los datos siguen influyendo en casi todas las facetas de la sociedad; la Universidad de Stanford se compromete con el futuro de ambos con la apertura del nuevo edificio de Informática y Ciencias de Datos (CoDa). “El edificio de Informática y Ciencias de Datos ofrece un espacio colaborativo e interdisciplinario donde los miembros de nuestra comunidad de diferentes campos pueden trabajar juntos para abordar problemas complejos y multifacéticos, desde enfermedades crónicas hasta el cambio climático y la inseguridad alimentaria”, afirmó el presidente Jonathan Levin. “CoDa y los programas que lo albergan son fundamentales para nuestros esfuerzos por aprovechar el descubrimiento basado en datos para impulsar la investigación avanzada en Stanford, una prioridad clave de la universidad”. CoDa está ubicado en la esquina de Lomita Mall y Jane Stanford Way, en la intersección de las facultades de Ingeniería y de Humanidades y Ciencias. Jennifer Widom, decana de la Facultad de Ingeniería de Frederick Emmons Terman , elogió la nueva instalación y a los donantes que la hicieron posible. “La inauguración del nuevo edificio de CoDa ofrece una visión inspiradora del futuro. Con sus espacios de trabajo de última generación y entornos de enseñanza adaptables, CoDa fomenta la colaboración y permite el descubrimiento basado en datos en una amplia variedad de campos”, afirmó. “Estamos profundamente agradecidos por el apoyo filantrópico que ayudó a hacer realidad esta visión y estamos entusiasmados por que los estudiantes, el personal docente y la comunidad en general disfruten de CoDa como un lugar para generar ideas audaces y nuevas vías de investigación y educación”. La necesidad de comprender y trabajar con datos y computación se está expandiendo a más áreas de estudio. Si bien CoDa será compartido por el Departamento de Ciencias de la Computación , el Departamento de Estadística y Stanford Data Science (una iniciativa a cargo del Vicerrector y Decano de Investigación ), también respaldará la enseñanza y la investigación en las siete escuelas de Stanford, incluida la más grande, la Escuela de Humanidades y Ciencias . “Para preparar a nuestros estudiantes para un mundo que cambia rápidamente, necesitamos brindarles una mayor comprensión de cómo los datos y la computación se cruzan con sus intereses elegidos, ya sea ingeniería, ciencias sociales o la intersección de la ética y la tecnología”, dijo Debra Satz, Decana Vernon R. y Lysbeth Warren Anderson de la Facultad de Humanidades y Ciencias. Crecimiento del descubrimiento El profesor Emmanuel Candès, titular de la cátedra Barnum-Simons de Matemáticas y Estadística y director de Stanford Data Science, afirmó que la creciente demanda de formación y educación en ciencia de datos se debe a la explosión de la adquisición de datos en los últimos 30 años. “Los datos se han vuelto fácilmente accesibles y la gente quiere extraer información de ellos”, afirmó. “Es un gran cambio y pone a nuestra profesión a la vanguardia”. En 2018, Candès predijo que muchos descubrimientos futuros se basarían en análisis masivos de datos y darían lugar a premios Nobel. El año pasado, los premios de física y química se otorgaron a científicos de datos. CoDa, afirmó, fomentará avances similares en muchos campos al forjar nuevas conexiones. “Lo interesante del nuevo edificio es la proximidad que ofrece a otros grupos, como nuestros colegas de informática, y la interacción que creará”, afirmó. “Cuando se cambia el espacio físico, se tiende a cambiar la forma de pensar”. + 2 El profesor Mehran Sahami, director del Departamento de Ciencias de la Computación, afirmó que el aprendizaje automático, al igual que la ciencia de datos, está experimentando un rápido crecimiento y potencial. “El aprendizaje automático tendrá un impacto en muchas áreas diferentes, como la educación, la medicina y los negocios”, afirmó. “Por eso, estamos pensando profundamente en cómo se pueden implementar estos nuevos desarrollos y tecnologías al servicio de las personas”. Ese crecimiento ha contribuido a impulsar la creciente demanda de formación en informática durante los últimos 10 años. Sahami dijo que hay unos 1.000 estudiantes de grado en su departamento, lo que la convierte en la especialidad más popular del campus. El departamento también tiene unos 1.000 estudiantes de máster y 300 de doctorado, y enseña más unidades de cursos que cualquier otro departamento de la universidad. “El número de profesores de informática también ha ido creciendo, lo que refleja la mayor variedad de investigaciones en el campo y la creciente oportunidad de generar impacto a través de esas investigaciones”, afirmó. “Todo este crecimiento ha aumentado la necesidad de espacios docentes nuevos y flexibles”. Para ello, CoDa cuenta con una gran sala de seminarios y tres grandes aulas equipadas con medios de comunicación de última generación y capacidad para 150, 180 y 250 estudiantes. Instalaciones modernas La construcción de CoDa comenzó en 2022 y reemplazó un edificio de biología. Además de los profesores de informática, estadística y ciencia de datos (algunos de los cuales comenzaron a mudarse el mes pasado), CoDa albergará Stanford Impact Labs y científicos de datos de investigación que supervisarán Marlowe , el instrumento computacional basado en GPU de Stanford. Cuatro carreras de grado (informática, sistemas simbólicos y un par de carreras de ciencia de datos) que comprenden el 25% de los estudiantes de grado de Stanford tendrán su base en CoDa. CoDa combina lo tradicional y lo moderno: una fachada color canela y un techo de tejas rojas en el este y un exterior de cristal en el oeste. Las dos alas del edificio, una rectangular y otra ovalada, connotan el tema del código binario de 1 y 0. Construido por el estudio de arquitectura LMN Architects, con sede en Seattle, CoDa combina elementos tradicionales y modernos. El lado oeste del edificio presenta una sección cilíndrica con un exterior de vidrio redondeado, enmarcado por una celosía de metal que se extiende por encima del techo, lo que le da un aspecto futurista. En contraste, el lado este tiene una fachada de color canela y un techo de tejas rojas, que refleja el estilo arquitectónico del

Leer más »

La vista desde el espacio y lo que nos dice

Los satélites de observación de la Tierra proporcionan datos para una gran variedad de aplicaciones, desde el seguimiento del cambio climático y la documentación de crímenes de guerra hasta la planificación de ayuda en caso de catástrofes y la evaluación de la profundidad de la nieve. Los investigadores de la ETH también son grandes beneficiarios. Los satélites de la Agencia Espacial Europea (ESA) orbitan a una altitud de 700 kilómetros y transmiten señales de radar a la Tierra. Estas se dispersan por la superficie del planeta y se reflejan de vuelta al satélite, lo que permite obtener imágenes del terreno incluso cuando el cielo está nublado. En este momento, Konrad Schindler y su equipo están interesados ​​en imágenes de Ucrania. «Los satélites sobrevuelan el país cada dos días, lo que nos proporciona una especie de vídeo a cámara lenta», explica Schindler, director del Instituto de Geodesia y Fotogrametría de la Escuela Politécnica Federal de Zúrich. «Si la señal llega a un montón de escombros donde antes había edificios intactos, rebota de forma diferente». Esto se debe a que las superficies lisas reflejan las ondas de radio con mayor eficacia que las superficies rugosas. No es que el ojo desnudo pueda interpretar con claridad este flujo de imágenes de libre acceso. Esa es la tarea de un sistema de vigilancia automático que aprovecha el poder de la inteligencia artificial. «El sistema utiliza estadísticas para identificar patrones en los datos», explica Schindler. Se trata de un ejemplo de aprendizaje automático, en el que un sistema de inteligencia artificial se entrena con imágenes de referencia que muestran claramente, por ejemplo, la diferencia entre un edificio destruido y uno que sigue intacto. Los datos de referencia fueron facilitados por UNOSAT, el Centro de Satélites de las Naciones Unidas. Allí, los expertos examinan minuciosamente imágenes de alta resolución procedentes de fuentes comerciales para identificar daños en los edificios y documentar así crímenes de guerra como el bombardeo de infraestructuras civiles. “Nuestro sistema de vigilancia no está diseñado para sustituir a estas personas”, afirma Schindler. “Pero su capacidad para cubrir grandes áreas les proporciona una orientación útil sobre dónde buscar más de cerca”. Viaje al espacio en globo Este texto apareció en el número 24/04 de la revista ETH  Globe . DescargarLeer el número completo (PDF, 4,7 MB) Mapas para organizaciones de ayuda El mapeo de los daños de guerra es uno de los dos proyectos en los que los investigadores de la ETH han colaborado con el Comité Internacional de la Cruz Roja (CICR). “El segundo buscaba responder a una pregunta aparentemente muy simple: ¿dónde está la gente?”, explica Schindler. Cuando el CICR lanza operaciones de socorro o campañas de vacunación tras catástrofes naturales, necesita datos sobre la densidad de población. En los países menos desarrollados, a menudo faltan estos datos, y es entonces cuando la Cruz Roja recurre a los mapas de población que el grupo de Schindler crea a partir de datos satelitales. Los investigadores de la ETH utilizan este potente cóctel de observación por satélite y aprendizaje automático en una amplia gama de áreas. En colaboración con la start-up suiza ExoLabs, por ejemplo, han desarrollado un sistema que ofrece una evaluación más rápida y precisa de la capa de nieve que la obtenida a partir de fuentes convencionales. Los investigadores comenzaron alimentando el sistema con estimaciones de la profundidad de la nieve en Suiza basadas en imágenes de satélite y mapas de elevación digitales. Mediante comparaciones con datos precisos recopilados por aeronaves y estaciones meteorológicas terrestres, el sistema aprendió a mejorar las estimaciones basadas en satélite. Ahora proporciona mapas diarios de la profundidad de la nieve, un servicio que pronto se lanzará de forma comercial. Ya se ha puesto a disposición de forma gratuita un mapa mundial de la altura de los árboles, basado también en datos satelitales y utilizado principalmente con fines medioambientales. «Desde el espacio no se puede ver la base de un árbol, pero la señal reflejada contiene información detallada, sobre todo en el rango infrarrojo, de la que se puede obtener mucha información sobre la vegetación», explica Schindler. A partir de datos de referencia de un escáner láser a bordo de la Estación Espacial Internacional (ISS), un programa informático ha aprendido a calcular la altura de los árboles a partir de los patrones de iluminación de la zona observada. Un pulso láser que rebota en la copa de un árbol tarda un mínimo de tiempo en volver a la ISS que uno reflejado desde el suelo. Esta diferencia es suficiente para calcular la altura de la vegetación local. Sistema de alerta temprana para bosques “El mapeo global de la altura de las copas de los árboles también proporciona información interesante sobre la edad de la vegetación”, dice Verena Griess, catedrática de Gestión de Recursos Forestales y directora del Instituto de Ecosistemas Terrestres de la ETH de Zúrich. Ella y su equipo están utilizando datos satelitales para descubrir más sobre la salud de los árboles. “El cambio climático nos ha llevado a una era de cambios rápidos”, dice Griess. “Esto también se aplica a nuestros bosques, donde los problemas causados ​​por plagas, derribos, incendios y sequías están aumentando considerablemente”. Con los datos satelitales, los investigadores planean establecer un sistema de alerta temprana que nos avise de los bosques en peligro incluso antes de que los daños sean visibles para el ojo humano. Este sistema también podría usarse para detectar los primeros signos de incendios forestales en áreas escasamente pobladas o para mostrar dónde se requieren medidas correctivas en Suiza para salvaguardar la protección contra los peligros naturales que ofrece la silvicultura. Los datos satelitales también podrían identificar áreas que son adecuadas para la extracción de madera o que requieren conservación debido a su alta biodiversidad. “Nuestro objetivo es garantizar que se tome la decisión correcta para cada lugar”, explica Griess.  Los investigadores están trabajando en un modelo que podrá identificar automáticamente las especies de árboles a partir de imágenes satelitales. El modelo, entrenado con datos de lugares donde se sabe que

Leer más »

Una pequeña consultora de Puerto Rico adopta la IA y ayuda a otras empresas a prosperar

Carlos Thompson, un destacado ejecutivo de publicidad en Puerto Rico, tiene una nueva herramienta de inteligencia artificial para encontrar rápidamente los datos económicos esenciales que necesita para las operaciones diarias de su empresa y la planificación estratégica a largo plazo. Está entusiasmado porque puede obtener todos los datos duros necesarios para preparar una presentación con su equipo o una propuesta a potenciales inversores en cuestión de segundos. “Siempre estamos corriendo contra el tiempo porque todo es para mañana, así que cualquier cosa que pueda ayudarnos a acelerar el acceso a la información es vital para nuestro negocio hoy. Todo está cambiando tan rápido que necesitamos movernos tan rápido como lo hace el tiempo”, dice Thompson. El bot es la última característica de una plataforma digital de análisis y datos económicos adaptados a cada situación local que está ayudando a docenas de empresas a prosperar en el complejo contexto económico de la isla caribeña. En conjunto, la plataforma de datos y el asistente de inteligencia artificial lanzado recientemente pretenden ser un punto de inflexión para las empresas al mejorar y acelerar los procesos internos, dice Gustavo Vélez, fundador de Intelligent Economics (IE), la pequeña firma puertorriqueña de análisis de datos económicos que desarrolló el portal basado en la nube y el bot. Ambas herramientas son un testimonio de la transformación digital de la consultora de Vélez, una de las más populares de Puerto Rico. Fundada en 2006 y formada por una docena de economistas, solía proporcionar datos y análisis económicos por teléfono y enviar informes y hojas de cálculo por correo. Muchos competidores siguen optando por el camino tradicional. “Hemos conseguido diferenciarnos de los demás [gracias a la digitalización]… atrayendo a más gente hacia nosotros, y aportando valor adicional”, afirma Vélez. El economista es un rostro familiar para muchos puertorriqueños, quienes lo ven como el gurú económico de la isla. Tiene su propio canal de video, conduce un programa de radio y escribe una columna semanal en un periódico puertorriqueño. Tras el huracán María, que destruyó la red eléctrica de la isla y causó daños por 90.000 millones de dólares en septiembre de 2017, Vélez decidió volverse completamente digital y comenzó un cambio continuo que culminó recientemente con el bot de inteligencia artificial. El huracán fue una llamada de atención para llevar el negocio un paso más allá y volverse digital, afirma. El fundador de IE pidió a Microsoft ser un socio estratégico en la transformación digital de su empresa. Durante casi una década, Microsoft ha acompañado a la firma de datos económicos en ese proceso, brindándole un conjunto diferente de tecnologías en cada etapa, incluida la IA, para hacer posible la transformación. So far, the platform and the AI bot have attracted a lot of interest. Vélez says he has nearly 100 clients, including some of the largest companies operating in Puerto Rico, from big retailers and food distributors to banks and advertising firms. He recently opened shop in neighboring Dominican Republic, whose economy is closely interconnected to Puerto Rico’s.   Embracing technology to be competitive Intelligent Economics’ platform runs on Azure App Service, a service for hosting web applications running on Microsoft’s cloud computing services. It also uses Power BI, a set of software services, apps and connectors that turn data into visuals and interactive insights. The portal was first introduced in 2018 and has been adding new features and improvements continuously since then. A beta version of the AI bot was launched in November for clients to speed up their customized data searches and improve their overall experience. The bot runs on Azure OpenAI Service with a GPT4 model. It uses Azure AI Foundry and Azure AI Search, a set of tools to build, ground and deploy machine learning models on Azure. Clients’ information and personal data remain anonymous, according to IE, but interactions with the bot are used to fine-tune the bot’s responses, tone and functionality. The platform and the AI bot are fed with more than 1,000 economic indicators of from Puerto Rico and the Dominican Republic, verified and regularly polished by IE’s economists — from per capita income and inflation data to retail sales and personal consumption aggregates. There is also data for the rest of the US and Latin American countries. “The most important thing is that it is fed with our database … not from random data found on the internet,” said Chantal Benet, vice president and chief economist at Intelligent Economics. Additionally, clients can opt to upload their own internal operating data, such as sales data and price tags, which is not shared with others. They can combine local public data with their own to develop business projections. Monthly and yearly indicators are tracked by Vélez’s group of economists from sometimes scattered and hard to find government websites and public and private sources of economic data. And much of the data is broken down by municipality, providing an exceptionally in-depth view of the state of the local economy. Clients say they have all the economic data they need to identify regional and local trends in a single place, available around the clock, easy to access and displayed in an enticing manner through customized dashboards and colorful charts. This real-time access allows them to enhance the efficiency and productivity of daily work and corporate planning, ultimately making them more competitive in a challenging environment. Vélez has also developed his own economic surveys — he offers an exclusive monthly consumer confidence index — and provides specific daily analysis explaining indicators and economic trends. As the portal is mostly focused on local data, that exclusive analysis gives it an edge over other global platforms of economic content. Navigating local economics Thompson, who runs De la Cruz, one of the largest advertising and marketing firms in Puerto Rico with offices in Miami and Colombia, has been a client of Vélez since 2006. He used to receive the data by phone in marathon sessions. Sometimes he could not reach Vélez immediately when he needed him the most. Now, he says,

Leer más »

Superando los límites del diseño para una ultra movilidad: Logrando la excelencia de ThinkPad con menos de 1 kg

El ingeniero de ThinkPad Sugisawa-san encontró inspiración en la gracia y la fuerza de los estanques de los jardines japoneses. La durabilidad y el peso han sido durante mucho tiempo inseparables en el diseño tradicional: la resistencia a menudo se refleja en el peso. Pero los materiales modernos y el diseño innovador han cambiado esa idea por completo. Durante décadas, ThinkPad ha sido un símbolo de resiliencia, en el que confían quienes superan los límites de la creatividad y la productividad en cualquier lugar . Si se cae, se pisa encima, incluso se usa como tabla de cortar, ThinkPad resiste. Sin embargo, ¿podría permanecer inquebrantable y al mismo tiempo volverse liviano como una pluma? Esta pregunta impulsó al ingeniero de ThinkPad Sugisawa-san, quien se propuso crear un ThinkPad de menos de un kilogramo. La inspiración llegó de los estanques de los jardines japoneses: elegante pero resistente. Mire el video para ver cómo Sugisawa-san y nuestro equipo de Yokohama redefinieron la posibilidad, fusionando una durabilidad legendaria con una ligereza incomparable. Explora la Academia ThinkBIG completa y conoce lo que ocurre detrás de escena con el equipo ThinkPad. Lenovo News. Traducido al español

Leer más »

El compromiso Secure by Design: ¿Qué es y cómo beneficia a los clientes de Lenovo?

Doug Fisher, vicepresidente sénior y director de seguridad e inteligencia artificial de Lenovo, nos explica los puntos clave de una de las iniciativas clave de CISA. Doug Fisher, vicepresidente sénior y director de seguridad e inteligencia artificial de Lenovo, nos explica los puntos clave de una de las iniciativas clave de CISA. ¿Qué es el compromiso Secure by Design y por qué Lenovo participó? El año pasado, Lenovo firmó el compromiso Secure by Design , una iniciativa de la Agencia de Seguridad de Infraestructura y Ciberseguridad de Estados Unidos (CISA). Este proyecto emblemático tiene como objetivo unir a la industria para garantizar que los clientes tengan acceso a la tecnología más segura posible. Esta iniciativa voluntaria se alinea con el compromiso de larga data de Lenovo con la seguridad. Como director de seguridad, mi misión es garantizar que Lenovo siga siendo el socio tecnológico más seguro y confiable de nuestros clientes. Estamos comprometidos con la mejora continua de nuestras prácticas de seguridad, cumpliendo o superando las mejores prácticas de la industria, como lo demuestra el hecho de ser una de las primeras potencias tecnológicas globales en firmar el compromiso. La iniciativa Secure by Design complementa nuestros programas de seguridad existentes, y colaborar con una organización tan importante como CISA demuestra la importancia de la seguridad. Estamos comprometidos a mejorar continuamente nuestras prácticas de seguridad para cumplir o superar las mejores prácticas de la industria, por lo que fue importante para nosotros ser uno de los signatarios iniciales de esta iniciativa y fomentar una mayor defensa dentro del ecosistema tecnológico. ¿Cuáles son los objetivos del compromiso Secure by Design? En esencia, el compromiso pide a los proveedores que se comprometan a cumplir siete objetivos clave dentro del año posterior a la firma del compromiso: ¿Puede hablarnos más sobre sus programas de seguridad actuales? En Lenovo, nuestros pilares de seguridad abarcan todo nuestro ecosistema de seguridad: nuestra infraestructura interna, nuestros productos y servicios, nuestra cadena de suministro y nuestra seguridad física. Nuestra sólida cultura de seguridad sustenta todo esto. Nuestros productos y servicios cuentan con seguridad integrada desde la fase de diseño. Se fabrican y envían con los más altos niveles de seguridad para eliminar el riesgo potencial de manipulación, y se brinda soporte de seguridad durante todo el ciclo de vida del producto. Entre nuestros clientes se incluyen empresas de Fortune 500, gobiernos y organizaciones del sector público, y nos tomamos muy en serio nuestro papel de garantizar su seguridad. Nuestro programa y nuestras prácticas de seguridad actuales son muy sólidos y muchos cumplen o superan los objetivos de CISA. La cultura de mejora continua de Lenovo nos obliga a estar un paso por delante de los actores maliciosos y participar en el compromiso Secure by Design respaldará estos esfuerzos. ¿Cómo beneficia esta iniciativa a los clientes de Lenovo? Si bien el compromiso Secure by Design de CISA se centra en los productos de software y servicios empresariales, sus principios priorizan la seguridad como un requisito empresarial fundamental en lugar de simplemente como una característica técnica. Además de Lenovo, empresas como Cisco, Google, IBM y Microsoft se encontraban entre los signatarios originales. Si bien se trata de una iniciativa liderada por el gobierno de los EE. UU., los resultados beneficiarán a todos los clientes de Lenovo en todo el mundo. La industria tecnológica actual es un ecosistema de muchos actores; el compromiso de CISA nos reúne a todos para compartir las mejores prácticas y aprender unos de otros. Nos permite implementar cambios en el desarrollo de nuestros productos y reafirma el compromiso de Lenovo de ser el proveedor de tecnología más confiable de nuestros clientes. Los panoramas de amenazas en constante evolución, incluidas las tecnologías emergentes como la IA, hacen que sea más fácil y rápido para los actores maliciosos implementar ataques en las empresas. Al unir a la industria, podemos frustrar estos intentos de manera proactiva y mejorar la seguridad general. ¿Qué acciones está llevando a cabo como parte del compromiso Secure by Design? Hemos identificado a los campeones de Secure by Design en todos nuestros negocios para determinar qué productos de todo nuestro portafolio están dentro del alcance y cuáles ya cumplen con los compromisos asumidos. ¿Qué avances ha logrado Lenovo hasta ahora? Ya estamos cumpliendo con el compromiso Secure by Design de CISA en muchas áreas, pero nos esforzamos por lograr una mejora continua. Ya hemos superado los compromisos adquiridos en nuestra Política de divulgación de vulnerabilidades. Publicamos periódicamente avisos de seguridad para comunicar de forma transparente las vulnerabilidades de los productos Lenovo y las medidas de mitigación adecuadas a nuestros clientes. Trabajamos en estrecha colaboración con investigadores de seguridad que identifican amenazas potenciales de buena fe y hemos introducido programas de recompensas por detección de errores en algunas de nuestras marcas de productos, por ejemplo, Motorola. ¿Que sigue? Como uno de los primeros signatarios del compromiso CISA, Lenovo se compromete a trabajar en conjunto con CISA para mejorar la seguridad de los productos y brindar un mejor servicio y protección a nuestros clientes. En los próximos meses, compartiremos más información sobre nuestro progreso. Seguimos comprometidos con el trabajo de la CISA, su misión de proteger la infraestructura crítica y la ciberseguridad en los EE. UU., y hemos profundizado nuestras relaciones con la agencia al participar en su Joint Cyber ​​Defense Collaborative para ayudar a combatir las amenazas cibernéticas. La colaboración entre el gobierno y la industria es esencial y estamos ansiosos por contribuir a esta iniciativa y construir relaciones adicionales entre la CISA y el gobierno federal para reforzar la defensa colectiva del ciberespacio. Lenovo News. Traducido al español

Leer más »
Scroll al inicio