El Portal de las Tecnologías para la Innovación

Categoría: Robótica y Automatización

Aceleración del análisis de GPU con RAPIDS y Ray

RAPIDS es un conjunto de bibliotecas de inteligencia artificial y ciencia de datos aceleradas por GPU de código abierto que cuentan con un buen soporte para la escalabilidad con motores distribuidos como Spark y Dask .   Ray es un popular marco de Python distribuido de código abierto que se usa comúnmente para escalar aplicaciones de inteligencia artificial y aprendizaje automático (ML). Ray se destaca particularmente en la simplificación y escalabilidad de los procesos de entrenamiento e inferencia y puede apuntar fácilmente a dispositivos tanto de CPU como de GPU.  En esta publicación, exploramos cómo se pueden usar Ray y RAPIDS para acelerar nuevos procesos de análisis. Actores de Ray Si bien Ray ofrece abstracciones de alto nivel para entrenar y ofrecer modelos de ML, experimentaremos con el núcleo de Ray , específicamente con los actores de Ray . Los actores son trabajadores con estado, lo que significa que cada trabajador puede almacenar, administrar y modificar cualquier dato almacenado. Por ejemplo, si desea utilizar cuDF para cargar algunos datos en la GPU, puede hacer lo siguiente: @ray.remote(num_gpus=1)classcuDFActor:    def__init__(self):        …    defread_parquet(self, filepath: str, columns: list=None) -> cudf.DataFrame:        returncudf.read_parquet(filepath, columns=columns)# Start 4 Workers pool_size =4actor_pool =[cuDFActor.remote() fori inrange(pool_size)] Este ejemplo utiliza Ray para crear cuatro actores en cuatro GPU y cuDF para acelerar la entrada y salida. Este ejemplo se puede utilizar con otras optimizaciones de RAPIDS (configuración de memoria con RMM) o rutinas ETL comunes como funciones de filtrado/personalizadas y definidas por el usuario: ejemplo de cudf ray-actor . Los actores Ray son increíblemente generales y se pueden aprovechar rápidamente para paralelizar bibliotecas de Python y también se pueden integrar fácilmente con algoritmos distribuidos existentes. Además, con Ray, puedes escalar fácilmente este trabajo en múltiples GPU y múltiples nodos.   NCCL y cuGraph Ya se han creado muchas implementaciones de algoritmos populares de RAPIDS para computación acelerada distribuida en GPU en C++. Estas implementaciones están altamente optimizadas y se basan en comunicaciones aceleradas con NCCL y primitivas y solucionadores que se encuentran en RAFT (distancias por pares, agrupamiento de k-medias, solucionadores iterativos y más). Las primitivas de RAFT se utilizan en varias bibliotecas de RAPIDS, incluidas cuML y cuGraph. Por ejemplo, la implementación de componentes débilmente conectados (WCC) de cuGraph se basa en gran medida en la canalización de datos ya limpios lo más rápido posible desde el disco a la implementación de CUDA C++ de nivel inferior. WCC es un buen objetivo para demostrar cómo los desarrolladores pueden usar RAPIDS (cuGraph) y Ray juntos para obtener acceso a algoritmos potentes, distribuidos y acelerados.  Para implementar el CMI se requiere lo siguiente: Se ha demostrado el primer paso. Y aunque Ray tiene ganchos NCCL , dependeremos de las interfaces NCCL de RAFT debido a la fuerte dependencia de cuGraph para administrar las comunicaciones. A continuación, se resumen los requisitos que se acaban de describir: classRAFTActor:    def__init__(self, index, pool_size, session_id):        …    defbroadcast_root_unique_id(self):        # broadcast root/rank-0 to all actors    def_setup_nccl(self):        # start NCCL with identified rank-0 actor    def_setup_raft(self):        # configure RAFT and NCCL together    defset_root_unique_id(self, root_uniqueId):        # To be set rank-0 for all actors@ray.remote(num_gpus=1)classWCCActor(RAFTActor):    def__init__(self, index, pool_size, session_id):        super().__init__(index=index, pool_size=pool_size, session_id=session_id, actor_name_prefix=»WCC»)    defweakly_connected_components(self, df):        «»»        1. Each actor loads in a chunk        2. Each actor has a NCCL/RAFT Handle        3. Pass each chunk and handle to MGGraph        «»»        src_array =df[‘src’]        dst_array =df[‘dst’]        weights =df[‘wgt’]        # Configure and setup a Multi-GPU cuGraph Object with         # edge list data and NCCL     graph =MGGraph(src_array, dst_array, weights, …)             # Execute WCC     weakly_connected_components(graph)# Initialize Ray and Run WCC algorithm Esto cubre las dos clases necesarias para ejecutar los componentes débilmente conectados de cuGraph. Para obtener más información, consulte una implementación de componentes débilmente conectados . Gran parte del trabajo consiste en configurar NCCL/RAFT. Este mismo patrón funciona para otras bibliotecas como cuML, como se demuestra con la implementación de k-means de cuML . Conclusión Ray proporciona una interfaz de actor expresable y escalable que se puede aprovechar fácilmente con RAPIDS. Hemos explorado cómo conectar actores Ray para usar implementaciones optimizadas de CUDA C++ y NCCL. Esta exploración se ha centrado principalmente en la integración de nivel 1 de actores Ray como lanzadores.  Para obtener más información sobre el procesamiento de datos acelerado por GPU, únase a los más de 3500 miembros de la comunidad RAPIDS Slack . Recursos relacionados NVIDIA Blog. P. E., A. D. y B. Z. Traducido al español

Leer más »

Cree un asistente de capacitación de dispositivos médicos con inteligencia artificial generativa con microservicios NVIDIA NIM

La innovación en dispositivos médicos sigue acelerándose, y la FDA autoriza un número récord de ellos cada año.  Cuando estos dispositivos nuevos o actualizados se presentan a los médicos y pacientes, estos necesitan capacitación para usarlos de manera correcta y segura.  Una vez que los dispositivos médicos están en uso, los médicos o los pacientes pueden necesitar ayuda para solucionar problemas. Los dispositivos médicos suelen ir acompañados de manuales de instrucciones de uso (IFU) extensos y técnicamente complejos, que describen el uso correcto del dispositivo. Puede resultar difícil encontrar la información correcta rápidamente y la capacitación sobre un dispositivo nuevo es una tarea que requiere mucho tiempo. Los representantes de los dispositivos médicos suelen ofrecer capacitación de soporte, pero es posible que no estén presentes para responder todas las preguntas en tiempo real. Estos problemas pueden provocar demoras en el uso de los dispositivos médicos y la adopción de tecnologías más nuevas y, en algunos casos, dar lugar a un uso incorrecto. Uso de IA generativa para solucionar problemas en dispositivos médicos La generación aumentada por recuperación (RAG) utiliza modelos de aprendizaje profundo, incluidos los modelos de lenguaje extenso (LLM), para una búsqueda y recuperación eficiente de información mediante lenguaje natural. Con RAG, los usuarios pueden recibir instrucciones fáciles de entender para preguntas específicas en un corpus de texto extenso, como en una IFU. Los modelos de IA de voz, como el reconocimiento automático de voz (ASR) y los modelos de texto a voz (TTS), permiten a los usuarios comunicarse con estos flujos de trabajo de IA generativa avanzados utilizando su voz, lo que es importante en entornos estériles como el quirófano.  Los microservicios de inferencia NVIDIA NIM son contenedores optimizados para GPU y de alto rendimiento para estos modelos que brindan el menor costo total de propiedad y la mejor optimización de inferencia para los modelos más recientes. Al integrar RAG y la inteligencia artificial de voz con la eficiencia y la simplicidad de implementar microservicios NIM, las empresas que desarrollan dispositivos médicos avanzados pueden brindarles a los médicos respuestas precisas y sin intervención manual en tiempo real. Figura 1. Interfaz de usuario del chatbot del asistente de capacitación de dispositivos médicos Un asistente de capacitación en dispositivos médicos creado con microservicios NIM En este tutorial, creamos una secuencia de comandos RAG con capacidades de voz opcionales para responder preguntas sobre un dispositivo médico utilizando sus instrucciones de uso. El código utilizado está disponible en GitHub . Usamos los siguientes microservicios NIM en nuestra canalización RAG. Tiene la flexibilidad de cambiar los componentes de la canalización a otros microservicios NIM para diferentes modelos: RAG consta de dos pasos: ingesta de documentos, recuperación y generación de respuestas. Estos pasos y los microservicios NIM asociados se pueden encontrar en el diagrama de arquitectura de referencia de la Figura 2. Uso de NVIDIA NIM  Puede acceder a los microservicios NIM registrándose para obtener créditos API gratuitos en el Catálogo de API en build.nvidia.com o implementándolos en su propia infraestructura computacional. En este tutorial, utilizamos los puntos finales del catálogo de API. Puede encontrar más información sobre el uso de microservicios de NIM, cómo encontrar su clave de API y otros requisitos previos en GitHub . Siga estos pasos para crear un pipeline RAG con voz opcional para responder preguntas sobre dispositivos médicos utilizando sus instrucciones de uso. Empezando Para comenzar con este flujo de trabajo, visite el repositorio de GitHub GenerativeAIExamples , que contiene todo el código utilizado en este tutorial, así como una extensa documentación.  Para obtener más información sobre los microservicios NIM, puede obtener más información en la documentación oficial de NIM y hacer preguntas en nuestro Foro para desarrolladores de NIM de NVIDIA . Recursos relacionados NVIDIA Blog. K. L., J. L. y K. S. Traducido al español

Leer más »

Creación de agentes inteligentes con el generador de agentes de Copilot Studio

Imagine un espacio de trabajo donde la productividad fluye sin problemas y mejora continuamente. En la era de la IA generativa, las organizaciones y los empleados están experimentando mejoras sin precedentes en la eficiencia y la creatividad. Los sistemas de IA generativa pueden automatizar tareas rutinarias, liberando tiempo valioso para que los empleados se concentren en iniciativas más estratégicas. Estos asistentes inteligentes analizan grandes cantidades de datos para proporcionar información útil, lo que ayuda a los equipos a tomar decisiones informadas con rapidez. Además, ayudan en la creación de contenido, el análisis de datos e incluso las interacciones con los clientes, lo que garantiza que las empresas puedan operar de manera más eficaz y adaptarse a las demandas del mercado en constante evolución. Este avance tecnológico no solo optimiza los flujos de trabajo, sino que también permite a los empleados innovar y alcanzar su máximo potencial, lo que en última instancia impulsa el éxito y el crecimiento dentro de la organización. Microsoft 365 Copilot es su asistente de IA, y Copilot Studio es donde puede crear y administrar agentes fácilmente. Piense en ellos como las nuevas aplicaciones para un mundo impulsado por IA. Los agentes se conectan a las fuentes de datos y conocimientos de su organización para automatizar y ejecutar procesos comerciales, trabajando junto con una persona, un equipo o una organización o en su nombre. Los agentes varían desde agentes simples, rápidos y con capacidad de respuesta, hasta agentes más avanzados y completamente autónomos. Imaginamos un lugar de trabajo en el que cada organización tendrá agentes que trabajen en nombre de personas, equipos o funciones. ¿Qué es el generador de agentes de Copilot Studio? El generador de agentes de Copilot Studio es una plataforma de código reducido que permite a los usuarios crear agentes personalizados directamente en Microsoft 365 Copilot Business Chat (BizChat). Esta potente herramienta permite a los usuarios crear agentes inteligentes que pueden automatizar tareas, proporcionar información valiosa y mejorar la productividad general. El generador de agentes ofrece una interfaz de usuario intuitiva, con una integración perfecta con varias fuentes de datos y opciones de implementación rápida. Esta herramienta le permite describir su agente, crearlo, probarlo e implementarlo, lo que lo hace accesible incluso para personas con un mínimo de experiencia técnica. Características principales Cómo empezar Para ayudar a mostrar lo que es posible con los agentes creados con el generador de agentes de Copilot Studio, hemos puesto a su disposición agentes prediseñados , como Career Coach, Prompt Coach y Writing Coach. Puede usarlos como punto de partida para crear agentes, conectarse con sus fuentes de conocimiento y mejorar los flujos de trabajo de su empresa. O puede crear su propio agente. Para comenzar a utilizar el generador de agentes. El proveedor de vídeo requiere cookies para reproducir el vídeo. Acepte para continuar o verlo directamente en el sitio del proveedor.Aceptar Beneficios de utilizar el generador de agentes Copilot Studio ¡Empiece a crear agentes hoy mismo! El generador de agentes de Copilot Studio es un elemento innovador para las empresas que buscan aprovechar el poder de los agentes inteligentes. Al proporcionar una plataforma de poco código para crear agentes personalizados, permite a los usuarios mejorar la eficiencia, mejorar la interacción con el cliente y optimizar los procesos. Ya sea que desee automatizar tareas o brindar información valiosa, el generador de agentes es una herramienta que vale la pena explorar. Ya sea un usuario, un desarrollador o un profesional de TI, con la capacidad de crear agentes en Copilot Studio, puede crear un agente y personalizarlo para las necesidades y los procesos específicos de su empresa y aprovechar al máximo la IA. Estas funciones están disponibles en general en la actualidad. Explore la documentación completa y la guía del usuario para comenzar. Microsoft Blog. M. Traducido al español

Leer más »

Mi viaje para crear un robot de voz desde cero

Mi recorrido en la creación de un bot de voz para producción El mundo de la inteligencia artificial está repleto de innovaciones, y una de sus ramas más fascinantes es el desarrollo de bots de voz. Estas entidades digitales tienen el poder de transformar las interacciones de los usuarios, volviéndolas más naturales e intuitivas. En esta publicación del blog, quiero llevarte a un viaje a través de mi experiencia en la creación de un bot de voz desde cero utilizando las tecnologías de vanguardia de Azure: OpenAI GPT-4o-Realtime, Azure Text-to-Speech (TTS) y Speech-to-Text (STT). https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2FoZtWPST-xUo%3Ffeature%3Doembed&display_name=YouTube&url=https%3A%2F%2Fwww.youtube.com%2Fshorts%2FoZtWPST-xUo&image=https%3A%2F%2Fi.ytimg.com%2Fvi%2FoZtWPST-xUo%2Fhqdefault.jpg&type=text%2Fhtml&schema=youtube Características clave para crear un bot de voz eficaz   Además, existen inmensas oportunidades disponibles. Si se implementa con éxito, un agente de voz sólido puede revolucionar la interacción con el cliente. Considere un escenario en el que una empresa utiliza un agente de voz impulsado por IA para llegar a clientes potenciales en una campaña de marketing. Este enfoque puede mejorar enormemente la eficiencia, lo que permite a la empresa gestionar grandes volúmenes de clientes potenciales y proporcionar un retorno de la inversión enormemente mejorado en comparación con los métodos tradicionales. Antes de sumergirnos en los aspectos técnicos, es fundamental tener una visión clara de lo que se quiere lograr con el bot de voz. En mi caso, el objetivo era crear un bot que pudiera entablar conversaciones fluidas con los usuarios, comprender sus necesidades y brindar respuestas oportunas. Imaginé un bot que pudiera integrarse en varias plataformas, ofreciendo flexibilidad y adaptabilidad. Azure ofrece un conjunto sólido de herramientas para el desarrollo de IA, y elegirlo fue una decisión fácil debido a sus ofertas integrales y sus sólidas capacidades de integración. Así es como comencé:   A medida que la tecnología de voz continúa evolucionando, han surgido diferentes tipos de bots de voz para satisfacer las distintas necesidades de los usuarios. En este análisis, exploraremos tres tipos destacados: Voice Bot Duplex , GPT-4o-Realtime y GPT-4o-Realtime + TTS . Esta comparación detallada cubrirá su arquitectura, fortalezas, debilidades, mejores prácticas, desafíos y posibles oportunidades de implementación.   Tipo 1: Bot de voz Duplex: Duplex Bot es un sistema de inteligencia artificial avanzado que lleva a cabo conversaciones telefónicas y completa tareas mediante detección de actividad de voz (VAD), conversión de voz a texto (STT), modelos de lenguaje grandes (LLM) y conversión de texto a voz (TTS). La tecnología de reconocimiento automático de voz (ASR) de Azure convierte el lenguaje hablado en texto. Un LLM analiza este texto para generar respuestas, que luego se convierten nuevamente en voz mediante Azure Text-To-Speech (TTS). Duplex Bot puede escuchar y responder simultáneamente, lo que mejora la fluidez de la interacción y reduce el tiempo de respuesta. Esta integración permite a Duplex gestionar de forma autónoma tareas como la reserva de citas con una mínima intervención humana.   – Fortalezas : – Debilidades : Tipo 2- GPT-4o-Tiempo real Los robots de voz basados ​​en GPT-4o-Realtime son los más simples de implementar, ya que utilizan el modelo de habla fundamental, ya que podría referirse a un modelo que toma directamente el habla como entrada y genera el habla como salida, sin la necesidad de texto como paso intermedio. La arquitectura es muy simple, ya que la matriz de voz va directamente al modelo de voz fundamental, que procesa esta matriz de bytes de voz, razona y responde al habla como matriz de bytes. – Fortalezas : – Debilidades : La compatibilidad con diferentes idiomas puede ser un problema, ya que no existe documentación oficial sobre compatibilidad con idiomas específicos.   Tipo 3- GPT-4o-Tiempo real + TTS Los robots de voz basados ​​en GPT-4o-Realtime son los más simples de implementar, ya que utilizan el modelo de habla fundamental, ya que podría referirse a un modelo que toma directamente la voz como entrada y genera la voz como salida, sin la necesidad de texto como paso intermedio. La arquitectura es muy simple, ya que la matriz de voz va directamente al modelo de voz fundamental, que procesa esta matriz de bytes de voz, razona y responde con la voz como matriz de bytes. Pero si desea personalizar la síntesis de voz, no hay opciones de ajuste fino presentes para personalizarla. Por lo tanto, se nos ocurrió una opción en la que conectamos GPT-4o-Realtime con Azure TTS, donde tomamos la modulación de voz avanzada, como las voces neuronales integradas con una variedad de idiomas índicos, también puede ajustar una voz neuronal personalizada (CNV).   La voz neuronal personalizada (CNV) es una función de conversión de texto a voz que le permite crear una voz sintética personalizada y única para sus aplicaciones. Con la voz neuronal personalizada, puede crear una voz que suene muy natural para su marca o sus personajes proporcionando muestras de voz humana como datos de entrenamiento. De fábrica,  la conversión de texto a voz  se puede utilizar con voces neuronales predefinidas para cada  idioma compatible . Las voces neuronales predefinidas funcionan bien en la mayoría de los escenarios de conversión de texto a voz si no se requiere una voz única. La voz neuronal personalizada se basa en la tecnología de conversión de texto a voz neuronal y en el modelo universal multilingüe y multihablante. Puede crear voces sintéticas ricas en estilos de habla o adaptables a varios idiomas. La voz realista y de sonido natural de la voz neuronal personalizada puede representar marcas, personificar máquinas y permitir que los usuarios interactúen con las aplicaciones de manera conversacional. Consulte los  idiomas compatibles  con la voz neuronal personalizada. – Fortalezas : – Debilidades : Conclusión La creación de un bot de voz es un proceso emocionante pero desafiante. Como hemos visto, aprovechar las herramientas avanzadas de Azure, como GPT-4o-Realtime, Text-to-Speech y Speech-to-Text, puede proporcionar la base para crear un bot de voz que comprenda, interactúe y responda con fluidez similar a la humana. A lo largo de este proceso, aspectos clave como la interacción natural, el conocimiento del contexto, la compatibilidad con varios idiomas y el procesamiento en tiempo real fueron vitales para garantizar la eficacia del bot en varios escenarios. Si bien cada modelo de bot de voz, desde Voice Bot Duplex hasta GPT-4o-Realtime y

Leer más »

La Universidad de Ciencia y Tecnología de China propone un nuevo robot blando en espiral basado en una estructura de espiral logarítmica

El grupo de investigación del Distinguido Profesor Nikolaos Freris de la Universidad de Ciencia y Tecnología de China y su colaborador Wei Xi, Investigador Asociado Especial, han logrado importantes avances en el campo de la robótica blanda.  Basándose en la observación sistemática y la abstracción de modelos matemáticos de la morfología y el movimiento de las extremidades flexibles de diversas criaturas de la naturaleza (como trompas de elefante, tentáculos de pulpo, caballitos de mar y colas de camaleón), el equipo propuso por primera vez un nuevo robot blando en espiral basado en una estructura en espiral logarítmica, lo que demuestra su capacidad para realizar tareas complejas de agarre y manipulación en múltiples dimensiones y escenarios. Los resultados de la investigación relevante se publicaron en Device, una revista de Cell Press, bajo el título «SpiRobs: robots logarítmicos en forma de espiral para un agarre versátil en escalas». Los robots blandos han atraído mucha atención debido a su seguridad y flexibilidad y son un tema de investigación de vanguardia en el campo de la robótica. Sin embargo, todavía existe una gran brecha entre los robots blandos existentes y las extremidades flexibles de las criaturas naturales en términos de desempeños clave como destreza, velocidad de movimiento e interacción colaborativa. Al abstraer y modelar matemáticamente las similitudes morfológicas de las extremidades flexibles de varias criaturas (trompas de elefante, tentáculos de pulpo, caballitos de mar, colas de camaleón, etc.), el equipo de investigación propuso una clase de robots blandos universales y escalables: robot espiral (como se muestra en Figura 1 display), y estudió sistemáticamente su teoría de diseño, métodos de preparación y estrategias operativas, y demostró la destreza, precisión y velocidad de este tipo de robot en escenarios de aplicación ampliados como interacción multiescala, multimaterial, multidimensional y colaborativa. Comparable al rendimiento superior de los organismos vivos. Figura 1 Principios de diseño y varios prototipos de robots espirales. (A) Fuente de inspiración biónica para el principio de diseño en espiral. (B) Robot espiral representativo implementado en este trabajo. El equipo de investigación propuso un método de diseño inverso para realizar el robot en espiral: primero determine la forma de rizo final del robot (es decir, siga la ecuación de espiral logarítmica), luego discretice la espiral y expándala para obtener el diseño del cuerpo lineal del robot (como como se muestra en la Figura 2). El robot se fabrica mediante impresión 3D, que tiene un bajo costo y una rápida velocidad de preparación, lo que permite una optimización eficiente y una iteración rápida. Además, el equipo de investigación propuso además una estrategia de agarre biónico, que puede realizar el agarre automático de diferentes ubicaciones y objetos basándose en una simple detección y control de corriente, superando el método tradicional de sensores de alta precisión y la dependencia de métodos de control complejos. Sobre esta base, el equipo de investigación demostró una gran cantidad de diseños extendidos (escalas que van desde centímetros a metros) y conjuntos colaborativos de múltiples robots. Figura 2 Estrategia de operación y visualización de la aplicación del robot espiral. (A) Estrategia de operación biónica. (B) Demostración del robot espiral que realiza tareas complejas de agarre y manipulación en múltiples dimensiones y escenarios. Se espera que la nueva tecnología de robot en espiral propuesta en este estudio promueva aún más el desarrollo y la madurez de los robots blandos y proporcione un potente soporte técnico y soluciones innovadoras para tareas de agarre complejas, interacción persona-computadora, industrias económicas de baja altitud y otros escenarios de aplicación. Wang Zhanyi, estudiante de doctorado en la Facultad de Ciencias y Tecnología de la Computación de la Universidad de Ciencia y Tecnología de China, es el primer autor del artículo. Su codirector es Nikolaos Freris, profesor distinguido de la Facultad de Ciencias de la Computación y Tecnología. en la Universidad de Ciencia y Tecnología de China, y Wei Xite, investigador asociado de la Facultad de Química y Ciencia de Materiales y coautor correspondiente del artículo. Universidad de Ciencia y Tecnología de China News. Traducido al español

Leer más »

Cómo la IA nos ayuda a hacer las cosas mejor, por el planeta y por los demás

Desde el tratamiento del cáncer hasta la revolución del reciclaje, la IA puede ayudar a resolver algunos de los problemas más urgentes y complejos de la humanidad. La inteligencia artificial y la computación acelerada se están utilizando para ayudar a resolver los mayores desafíos del mundo. NVIDIA ha reinventado la pila informática, que abarca GPU, CPU, DPU, redes y software. Nuestra plataforma impulsa la revolución de la IA, impulsando cientos de millones de dispositivos en cada nube y alimentando el 75 % de las supercomputadoras TOP500 del mundo. Ponida en manos de empresarios y empresas, desarrolladores y científicos, esa plataforma se convierte en un sistema de invención y una fuerza para el bien en todas las industrias y geografías. A continuación se presentan cinco ejemplos de cómo se pusieron en práctica estas tecnologías durante el año pasado: Apoyo a los cirujanos La empresa emergente SimBioSys, con sede en Illinois, ha creado TumorSight Viz, una tecnología que convierte las imágenes de resonancia magnética en modelos 3D del tejido mamario. Esto ayuda a los cirujanos a tratar mejor los cánceres de mama al proporcionar visualizaciones detalladas de los tumores y el tejido circundante. Salvando vidas y energía Los investigadores del Wellcome Sanger Institute , un actor clave en el Proyecto Genoma Humano, analizan decenas de miles de genomas de cáncer al año, lo que proporciona información sobre la formación del cáncer y la eficacia del tratamiento. La computación acelerada y el software de NVIDIA reducen drásticamente el tiempo de ejecución del análisis del instituto y el consumo de energía por genoma. Limpiando nuestras aguas Clearbot , desarrollado por graduados de la Universidad de Hong Kong, es un barco de limpieza marina impulsado por IA que recoge basura del agua de forma autónoma. Con la plataforma NVIDIA Jetson, Clearbot está causando sensación en Hong Kong y la India, ayudando a mantener limpias las regiones turísticas. Plantas de reciclaje ecológicas Greyparrot , una startup con sede en el Reino Unido, ha desarrollado Greyparrot Analyzer, un dispositivo con tecnología de inteligencia artificial que ofrece «inteligencia sobre residuos» a las plantas de reciclaje. Mediante el uso de cámaras integradas y aprendizaje automático, el analizador identifica y diferencia los materiales en las cintas transportadoras, lo que mejora significativamente la eficiencia del reciclaje. Impulsando el avance tecnológico en África En Túnez se ha inaugurado un nuevo centro de innovación en inteligencia artificial , como parte de los esfuerzos de NVIDIA por formar a 100.000 desarrolladores en toda África. El centro, creado en colaboración con el NVIDIA Deep Learning Institute, ofrece formación, tecnologías y redes empresariales para impulsar la adopción de la inteligencia artificial en todo el continente. Todas estas iniciativas —ya sea equipar a los cirujanos con nuevas herramientas o hacer que las plantas de reciclaje sean más ecológicas— dependen del ingenio de seres humanos en todo el mundo, seres humanos cada vez más potenciados por la IA. Encuentre más ejemplos de cómo la IA está ayudando a personas de distintas industrias y de todo el mundo a marcar una diferencia e impulsar un impacto social positivo . NVIDIA Blog. C. C. Traducido al español

Leer más »

Qué Es Una Fábrica Virtual y Cómo Están Haciendo Realidad la Digitalización Industrial

Las fábricas virtuales están ayudando a los fabricantes a desbloquear nuevas posibilidades, desde la planificación hasta las operaciones. Para hacer frente al cambio a los vehículos eléctricos, el aumento de la demanda de semiconductores, la deslocalización de la manufactura y las ambiciones de una mayor sostenibilidad, los fabricantes están invirtiendo en nuevos desarrollos de fábricas y rediseñando sus instalaciones existentes. Estos proyectos a menudo superan el presupuesto y el cronograma, debido a procesos de planificación complejos y manuales, infraestructura tecnológica heredada y herramientas, datos y equipos desconectados. Las fábricas virtuales y la digitalización abordan estos desafíos, y los fabricantes los están aceptando. Una fábrica virtual, impulsada por tecnologías como los gemelos digitales, el ecosistema Universal Scene Description (OpenUSD) y la IA generativa, puede habilitar nuevas posibilidades, desde la planificación hasta las operaciones. ¿Qué Es Una Fábrica Virtual? Una fábrica virtual es una representación físicamente precisa de una fábrica real. Estos gemelos digitales de fábricas permiten a los fabricantes modelar, simular, analizar y optimizar sus procesos productivos, recursos y operaciones sin necesidad de un prototipo físico o planta piloto. Beneficios de las Fábricas Virtuales Las fábricas virtuales desbloquean muchos beneficios y posibilidades para los fabricantes, entre ellos: Fábricas Virtuales: Un Campo de Pruebas para la IA y la Robótica Los desarrolladores de robótica utilizan cada vez más fábricas virtuales para entrenar y probar la IA y los sistemas autónomos que se ejecutan en fábricas físicas. Por ejemplo, las fábricas virtuales pueden permitir a los desarrolladores y equipos de manufactura simular trabajadores digitales y robots móviles autónomos (AMR), agentes de IA de visión y sensores para crear un mapa centralizado de la actividad de los trabajadores en toda una instalación. Al fusionar los datos de las transmisiones de cámaras simuladas con el seguimiento multicámara, los desarrolladores pueden generar mapas de ocupación que informan sobre las rutas óptimas de AMR. Los desarrolladores también pueden utilizar estas fábricas virtuales físicamente precisas para entrenar y probar agentes de IA capaces de gestionar sus flotas de robots, para garantizar que los robots habilitados para IA puedan adaptarse a la imprevisibilidad del mundo real e identificar configuraciones optimizadas para la colaboración entre humanos y robots. ¿Cuáles Son las Bases de Una Fábrica Virtual? La construcción de fábricas virtuales a gran escala y físicamente precisas que desbloqueen estas posibilidades de transformación requiere reunir muchas herramientas, formatos de datos y tecnologías para armonizar la representación de los aspectos del mundo real en el mundo digital. Originalmente inventado por Pixar Animation Studios, OpenUSD abarca una colección de herramientas y capacidades que permiten la interoperabilidad de datos que los desarrolladores y fabricantes requieren para lograr sus objetivos de digitalización. El principal superpoder de OpenUSD es el modelado flexible de datos. La entrada 3D se puede aceptar de aplicaciones de origen y combinarse con una variedad de datos, incluidos software de diseño asistido por computadora, sensores en vivo, documentación y registros de mantenimiento, a través de un pipeline de datos unificada. OpenUSD permite a los desarrolladores compartir estos tipos de datos a través de diferentes herramientas de simulación y modelos de IA, proporcionando información para todas las partes interesadas. Los datos se pueden sincronizar desde la planta de producción hasta el gemelo digital, lo que permite obtener información en tiempo real para los gerentes y equipos de la fábrica. Al desarrollar soluciones de fábrica virtual en OpenUSD, los desarrolladores pueden mejorar la colaboración de los equipos de fábrica, lo que les permite revisar los planes, discutir las oportunidades de optimización y tomar decisiones en tiempo real. Para apoyar y acelerar el desarrollo del ecosistema OpenUSD, Pixar, Adobe, Apple, Autodesk y NVIDIA formaron la Alliance for OpenUSD, que está construyendo estándares abiertos para USD en especificaciones básicas, materiales, geometría y más. Casos de Uso Industrial para Fábricas Virtuales Para liberar el potencial de las fábricas virtuales, los líderes de la industria, incluidos Autodesk, Continental, Pegatron, Rockwell Automation, Siemens y Wistron, están desarrollando soluciones de fábrica virtual que interoperan con OpenUSD y NVIDIA Omniverse, una plataforma de interfaces de programación de aplicaciones (API) y kits de desarrollo de software que permiten a los desarrolladores crear aplicaciones para workflows complejos de digitalización industrial y 3D basados en OpenUSD. FlexSim, una empresa de Autodesk, utiliza OpenUSD para permitir que los equipos de fábrica analicen, visualicen y optimicen los procesos del mundo real con su modelado de simulación para sistemas y operaciones complejos. El software de simulación de eventos discretos proporciona una interfaz intuitiva de arrastrar y soltar para crear modelos de simulación 3D, tener en cuenta la variabilidad del mundo real, ejecutar escenarios hipotéticos y realizar análisis en profundidad. Los desarrolladores de Continental, una empresa alemana líder en tecnología automotriz, desarrollaron ContiVerse, una aplicación de planificación de fábricas y operaciones de manufactura en OpenUSD y NVIDIA Omniverse. La aplicación ayuda a Continental a optimizar los diseños de las fábricas y planificar los procesos de producción de forma colaborativa, lo que lleva a una reducción esperada del 13% en el tiempo de comercialización. En asociación con el proveedor de consultoría de TI y servicios digitales SoftServe, Continental también desarrolló Industrial Co-Pilot, que combina conocimientos impulsados por IA con visualización inmersiva para ofrecer orientación en tiempo real y análisis predictivo a los ingenieros. Se espera que esto reduzca el esfuerzo de mantenimiento y el tiempo de inactividad en un 10%. Pegatron, uno de los mayores fabricantes mundiales de teléfonos inteligentes y electrónica de consumo, está desarrollando soluciones de fábrica virtual en OpenUSD para acelerar el desarrollo de nuevas fábricas, así como para minimizar las órdenes de cambio, optimizar las operaciones y maximizar el rendimiento de la línea de producción en las instalaciones existentes. Rockwell Automation está integrando las API de NVIDIA Omniverse Cloud y OpenUSD con su software de gemelos digitales Emulate3D para brindar a los equipos de manufactura interoperabilidad de datos, colaboración en vivo y visualización basada en la física para diseñar, construir y operar gemelos digitales a escala industrial de sistemas de producción. Siemens, una empresa de tecnología líder en automatización, digitalización y sostenibilidad y miembro de Alliance for OpenUSD, está adoptando las API de Omniverse Cloud dentro de su plataforma Siemens Xcelerator, comenzando

Leer más »

HERD: Colaboración entre humanos y IA

– Participar y controlar enjambres de robots y drones Resumen Hoy en día, los robots y los drones tienen un conjunto de tareas cada vez más amplio. Sin embargo, estos robots tienen una capacidad limitada para cooperar entre sí y con los humanos. ¿Cómo podemos aprovechar los beneficios potenciales de tener varios robots trabajando en paralelo para reducir el tiempo de finalización? Si los robots reciben tareas colectivas como un enjambre, potencialmente pueden coordinar sus operaciones sobre la marcha y adaptarse en función de las condiciones locales para lograr un desempeño de tareas óptimo o casi óptimo. Junto con socios industriales, este proyecto tiene como objetivo abordar la colaboración entre múltiples robots y diseñar y evaluar soluciones tecnológicas que permitan a los usuarios utilizar y controlar sistemas autónomos de múltiples robots. Período del proyecto: 2021-2025Presupuesto: 17,08 millones de coronas danesas. Gerente de proyecto Más sobre el proyecto (en inglés) Los robots y drones asumen un conjunto cada vez más amplio de tareas, como el robot agrícola autónomo de AgroIntelli y los sistemas de respuesta a emergencias basados ​​en drones de Robotto. Sin embargo, actualmente estos robots tienen una capacidad limitada para cooperar entre sí y con los humanos. En el caso de AgroIntelli, por ejemplo, actualmente solo se puede desplegar un robot en un campo a la vez y no puede responder eficazmente a la presencia de un tractor conducido por un hombre o incluso de otro robot agrícola trabajando en el mismo campo. En el futuro, AgroIntelli quiere aprovechar los beneficios potenciales de tener varios robots trabajando en paralelo en el mismo campo para reducir el tiempo de finalización. Una forma sencilla de lograr esto es dividir el campo en varias áreas distintas correspondientes al número de robots disponibles y luego asignar a cada robot su propia área. Sin embargo, este enfoque es inflexible y requiere una planificación detallada a priori. Si, en cambio, a los robots se les asignara la tarea colectivamente como un enjambre, potencialmente podrían coordinar su operación sobre la marcha y adaptarse en función de las condiciones locales para lograr un desempeño óptimo o casi óptimo de la tarea. De manera similar, la arquitectura del sistema de Robotto requiere actualmente una unidad de control para gestionar cada dron desplegado. En escenarios de búsqueda de grandes áreas y operaciones con terreno complejo, la cobertura proporcionada por un solo dron es insuficiente. Varios drones pueden proporcionar datos en tiempo real sobre una superficie más grande y desde múltiples perspectivas, ayudando así a los equipos de respuesta a emergencias en sus operaciones en las que el tiempo es crítico. Sin embargo, en el sistema actual, los drones adicionales requieren cada uno de ellos un operador y una unidad de control dedicados. La coordinación entre operadores introduce una sobrecarga y puede convertirse en una lucha para mantener una comprensión compartida de la situación en rápida evolución. Por lo tanto, existe la necesidad de desarrollar algoritmos de control para la coordinación entre drones e interfaces que permitan una gestión de alto nivel del enjambre desde una única consola de control. La complejidad requiere interacciones avanzadas para mantener los datos procesables, simples y, al mismo tiempo, respaldar las demandas críticas de la operación. Este desafío es relevante para la búsqueda y rescate (SAR), así como para otras ofertas de servicios en la hoja de ruta, incluidas las misiones de extinción de incendios, inspecciones y primeros auxilios. Para nuestros dos socios industriales, AgroIntelli y Robotto, y para empresas similares que están impulsando la tecnología robótica hacia aplicaciones en el mundo real, existe una clara necesidad insatisfecha de enfoques que permitan a los operadores humanos involucrarse y controlar de manera efectiva sistemas compuestos por múltiples robots autónomos. Esto plantea un conjunto completamente nuevo de desafíos en comparación con el paradigma actual donde existe un mapeo uno a uno entre el operador y el robot. El operador debe poder interactuar con el sistema a nivel de enjambre como una entidad única para establecer prioridades y limitaciones de la misión y, al mismo tiempo, poder intervenir y tomar el control de un solo robot o un subconjunto de robots. Un socorrista puede, por ejemplo, querer tomar el control de un dron para seguir a un civil o un grupo de personal cerca de un área de búsqueda, mientras que un agricultor puede querer reasignar uno o más de sus robots agrícolas a otro campo. HERD desarrollará una comprensión de los desafíos en la colaboración de múltiples robots y diseñará y evaluará soluciones tecnológicas que permitan a los usuarios finales interactuar y controlar sistemas autónomos de múltiples robots. El proyecto se basará en casos de uso en agricultura y búsqueda y rescate respaldados por el conocimiento del dominio y el hardware robótico de los socios industriales. A través de los problemas y objetivos de investigación que se describen a continuación, buscamos permitir la próxima generación de colaboración entre humanos y enjambres. Planificación de misiones previas a la operación y sobre la marcha para enjambres de robots: un aumento en la cantidad de robots bajo el control del usuario tiene el potencial de llevar a una finalización de tareas más rápida y/o una mayor calidad. Sin embargo, el aumento en el número de unidades aumenta significativamente la complejidad de la comunicación entre el usuario final y el robot y la coordinación entre robots. Como tal, es fundamental ayudar al usuario a asignar tareas de forma eficiente y eficaz entre robots. Responderemos las siguientes preguntas de investigación: (i) ¿Cuáles son las funcionalidades necesarias para que los humanos definan eficazmente las prioridades y limitaciones de la misión a nivel de enjambre? (ii) ¿Cómo pueden los sistemas robóticos dividir de forma autónoma las tareas según la ubicación, el contexto y la capacidad, y bajo las limitaciones definidas por el usuario final? (iii) ¿Cómo cambia el uso de tecnologías autónomas de múltiples robots las rutinas organizativas existentes y cuáles son necesarias nuevas? Conciencia situacional bajo incertidumbre en tareas de múltiples robots: los usuarios de sistemas (multi)robots impulsados ​​por IA a menudo desean

Leer más »

Draganfly completa los primeros vuelos de prueba de concepto en el proyecto de investigación de entrega con drones para Mass General Brigham

Esta iniciativa tiene como objetivo demostrar cómo las entregas con drones podrían garantizar el acceso oportuno a suministros médicos críticos o muestras de laboratorio, minimizando así los retrasos logísticos tradicionales. Boston, MA., 18 de diciembre de 2024 (GLOBE NEWSWIRE) —  Draganfly Inc. (NASDAQ: DPRO) (CSE: DPRO) (FSE: 3U8A) (“Draganfly” o la “Compañía”), un desarrollador de sistemas y soluciones para drones líder en la industria y galardonado, anunció hoy la finalización exitosa de los vuelos iniciales como parte de un proyecto de prueba de concepto, investigación y desarrollo de entrega con drones para  el Mass General Brigham (MGB) Home Hospital . Esta fase inicial implicó la colaboración con el MGB y los reguladores para evaluar y mapear rutas potenciales, así como vuelos de prueba completos que incluyeron despegue y aterrizaje dentro de la infraestructura del hospital. Estos vuelos de prueba no contribuyeron a la prestación de atención médica. Esta iniciativa tiene como objetivo demostrar cómo las entregas con drones podrían garantizar el acceso oportuno a suministros médicos críticos o muestras de laboratorio, minimizando así los retrasos logísticos tradicionales. La primera fase del proyecto se centra en el área metropolitana de Boston para identificar cómo la tecnología de drones patentada de Draganfly aborda los desafíos logísticos de la atención médica al reducir los retrasos causados ​​por la congestión del tráfico y los métodos de entrega obsoletos. “Este es un primer paso hacia nuestra visión de algún día brindar atención médica de alta calidad directamente en los hogares de los pacientes de una manera más oportuna y rentable”, dijo el Dr. David Levine, MD, MPH, MA, Director Clínico de Investigación y Desarrollo en Mass General Brigham Healthcare at Home. “Estamos encantados de ver el progreso de nuestros servicios de entrega con drones con Mass General Brigham. La esperanza de Draganfly es generar una transformación en la forma en que los proveedores de atención médica gestionan la logística, lo que permitirá una entrega más rápida y confiable de suministros esenciales que beneficie directamente tanto a los pacientes como a los proveedores de atención médica”, comentó Cameron Chell, director ejecutivo de Draganfly. Draganfly también participó en el  Foro Mundial de Innovación Médica , un evento anual organizado por Mass General Brigham que se centra en los últimos avances en tecnología médica e innovaciones en el cuidado de la salud. El Foro, que se llevó a cabo del 23 al 25 de septiembre en Boston, MA, atrajo a profesionales de la salud y líderes en investigación y desarrollo médico para discutir y explorar nuevas formas de mejorar la atención al paciente y las opciones de tratamiento. Draganfly mostró varias tecnologías utilizadas en el proyecto de prestación de servicios médicos durante el evento. Draganfly News. Traducido al español

Leer más »
Scroll al inicio