El Portal de las Tecnologías para la Innovación

Categoría: Papers de Investigación Científica

Application potential in solar technology, medical diagnostics and quantum computing

An international team of researchers has managed to control the energy flow in a molecule using the pH. The study, led by the Friedrich Alexander University Erlangen-Nuremberg (FAU), could contribute, for example, to the development of new sensors for medical diagnostics. The findings are also of interest for the construction of more efficient solar cells and for quantum computing. The results are in the magazine Nature communications appeared*. There the work was particularly mentioned as a research highlight. At the center of the study is a process called „single split “. In future generations of solar cells, for example, it should ensure better use of light and thus higher efficiencies. So far, a large part of the radiated energy has evaporated and is released as heat. This is due to the way solar cells work – in principle similar to a car horn. Whether you press sensitively onto the center of the steering wheel or hit your fist hard: the result is the same, namely a single Hupton. This is the same in conventional solar cells: every photon, no matter how energetic, excites a single electron, which is then available as a charge carrier. But there are light particles that actually have enough power for two electrons. „This is where the singlet split comes into play “, explains Prof. Dr. Dirk Guldi from the Chair of Physical Chemistry at FAU: „This process ensures that the energy of the photon is divided, so to speak, so that two electrons can be excited. Together with a team from the University of Alberta in Canada, we have now managed to make this process switchable. “ A punch on the steering wheel produces two huptones For this, the researchers used a molecule from the group of the so-called tetra scene. The connection is brought into the so-called singlet excitation state by high-energy photons. This then splits into two low-energy triplet states on – in a short time, so a strong blow to the steering wheel now produces two heptones. „We have chemically modified our molecule so that it binds protons in an acidic environment “, explains Guldi. „This changes its properties so that the singlet split can no longer take place. “ If there is no splitting, the single state disintegrates within a short time with the release of light. The connection therefore lights up in an acidic environment. In contrast, it remains dark in an alkaline environment. „This mechanism could possibly be used for new sensors for medical diagnostics “, explains Guldi. In addition, success allows new insights into the way in which the singlet cleavage takes place in tetracenes. With this knowledge, the process may be further optimized in the future, the scientist hopes. „Until new, significantly more efficient solar cells can be designed, there is still a lot of work ahead of us “, he says. „But our results could be another important step in this way. “ They could also open up new perspectives for the development of quantum computers that can solve certain problems particularly quickly. FAU News

Leer más »

Potencial de aplicación en tecnología solar, diagnóstico médico y computación cuántica

Un equipo internacional de investigadores ha logrado controlar el flujo de energía en una molécula utilizando el pH. El estudio, dirigido por la Universidad Friedrich Alexander Erlangen-Nuremberg (FAU), podría contribuir, por ejemplo, al desarrollo de nuevos sensores para el diagnóstico médico. Los hallazgos también son de interés para la construcción de células solares más eficientes y para la computación cuántica. Los resultados están en la revista Comunicaciones de naturaleza aparecido*. Allí el trabajo fue mencionado particularmente como un punto culminante de la investigación. En el centro del estudio hay un proceso llamado „single split “. En las generaciones futuras de células solares, por ejemplo, debería garantizar un mejor uso de la luz y, por lo tanto, una mayor eficiencia. Hasta ahora, una gran parte de la energía irradiada se ha evaporado y se libera como calor. Esto se debe a la forma en que funcionan las células solares – en principio similar a la bocina de un automóvil. Ya sea que presione con sensibilidad en el centro del volante o golpee el puño con fuerza: el resultado es el mismo, es decir, un solo Hupton. Esto es lo mismo en las células solares convencionales: cada fotón, no importa cuán energético, excita un solo electrón, que luego está disponible como portador de carga. Pero hay partículas de luz que en realidad tienen suficiente potencia para dos electrones. „Aquí es donde entra en juego la división de singletes “, explica el profesor. Dr. Dirk Guldi de la Cátedra de Química Física de FAU: „Este proceso asegura que la energía del fotón se divida, por así decirlo, para que dos electrones puedan excitarse. Junto con un equipo de la Universidad de Alberta en Canadá, ahora hemos logrado que este proceso sea conmutable. “ Un golpe en el volante produce dos huptones Para esto, los investigadores utilizaron una molécula del grupo de la llamada escena tetra. La conexión es llevada al llamado estado de excitación singlete por fotones de alta energía. Esto luego se divide en dos estados de triplete de baja energía en – en poco tiempo, por lo que un fuerte golpe en el volante ahora produce dos heptones. „Hemos modificado químicamente nuestra molécula para que se una a los protones en un ambiente ácido “, explica Guldi. „Esto cambia sus propiedades para que la división singlete ya no pueda tener lugar. “ Si no hay división, el estado único se desintegra en poco tiempo con la liberación de luz. Por lo tanto, la conexión se ilumina en un ambiente ácido. En contraste, permanece oscuro en un ambiente alcalino. „Este mecanismo podría usarse para nuevos sensores para diagnósticos médicos “, explica Guldi. Además, el éxito permite nuevos conocimientos sobre la forma en que se produce la escisión singlete en los tetracenos. Con este conocimiento, el proceso puede optimizarse aún más en el futuro, espera el científico. „Hasta que se puedan diseñar nuevas células solares significativamente más eficientes, todavía queda mucho trabajo por delante “, dice. „Pero nuestros resultados podrían ser otro paso importante de esta manera. “ También podrían abrir nuevas perspectivas para el desarrollo de computadoras cuánticas que puedan resolver ciertos problemas de manera particularmente rápida. FAU News. Traducido al español

Leer más »

Breakthrough utiliza inteligencia artificial para identificar diferentes células cerebrales en acción

Un desafío de décadas en neurociencia se ha resuelto aprovechando la inteligencia artificial (IA) para identificar las firmas eléctricas de diferentes tipos de células cerebrales por primera vez, como parte de un estudio en ratones dirigido por investigadores de la UCL. Los cerebros están formados por muchos tipos diferentes de neuronas (células nerviosas en el cerebro), cada una de las cuales se cree que desempeña diferentes funciones en el procesamiento de la información. Los científicos han podido usar electrodos durante mucho tiempo para registrar la actividad de las neuronas al detectar los picos eléctricos ‘que generan mientras realizan funciones cerebrales. Aunque los picos de grabación han demostrado ser invaluables para monitorear la actividad de las neuronas individuales en las profundidades del cerebro, hasta ahora el método ha sido ‘blind’ para el tipo de neurona que se está grabando –, lo que hace imposible identificar cómo las diferentes neuronas contribuyen a la operación general del cerebro. En un nuevo estudio, publicado en Celular, el equipo de investigación ha superado este problema identificando las distintas ‘firmas eléctricas’ de diferentes tipos de neuronas en el cerebro del ratón, utilizando breves pulsos de luz azul para desencadenar picos en tipos de células específicas (un método llamado optogenética). Crearon una biblioteca de las diferentes firmas eléctricas para cada tipo de neurona, lo que les permitió entrenar un algoritmo de IA que puede reconocer automáticamente cinco tipos diferentes de neuronas con un 95% de precisión sin necesidad de herramientas genéticas. El algoritmo también se validó en datos de registro cerebral de monos. Los investigadores dicen que han superado un obstáculo importante para poder usar la tecnología para estudiar afecciones neurológicas como la epilepsia, pero que todavía hay “un largo camino que recorrer antes de que pueda usarse en aplicaciones prácticas. El Dr. Maxime Beau, coautor del estudio del Instituto Wolfson de Investigación Biomédica de la UCL, dijo: “Durante décadas, los neurocientíficos han luchado con el problema fundamental de identificar de manera confiable los diferentes tipos de neuronas que están simultáneamente activas durante el comportamiento. Nuestro enfoque ahora nos permite identificar tipos de neuronas con más del 95% de precisión en ratones y monos. “Este avance permitirá a los investigadores registrar circuitos cerebrales a medida que realizan comportamientos complejos como el movimiento. Al igual que las puertas lógicas en un chip de computadora, las neuronas en el cerebro son unidades informáticas elementales que vienen en varios tipos. Nuestro método proporciona una herramienta para identificar muchas de las puertas lógicas de cerebro en acción al mismo tiempo. Antes, solo se podía hacer uno a la vez, y a un costo mucho mayor.» Los autores dicen que el hecho de que el algoritmo se pueda aplicar en diferentes especies le da un gran potencial para expandirse a otros animales y, eventualmente, a los humanos. A corto plazo, la nueva técnica significa que, en lugar de requerir una ingeniería genética compleja para estudiar el cerebro, los investigadores podrían usar cualquier animal normal para estudiar qué hacen las diferentes neuronas y cómo interactúan entre sí para generar comportamiento. Uno de los objetivos finales es poder estudiar trastornos neurológicos y neuropsiquiátricos como la epilepsia, el autismo y la demencia, muchos de los cuales se cree que implican cambios en la forma en que interactúan los diferentes tipos de células en el cerebro. El profesor Beverley Clark, autor principal del estudio del Instituto Wolfson de Investigación Biomédica de la UCL, dijo: “Al igual que muchos instrumentos diferentes en una orquesta contribuyen al sonido de una sinfonía, el cerebro se basa en muchos tipos de neuronas distintas para crear el comportamiento complejo que exhiben los humanos y otros animales. Nuestro trabajo es análogo a aprender el sonido que hace cada instrumento y luego enseñar un algoritmo para reconocer la contribución de cada uno de ellos a una sinfonía. “Ser capaz de observar esta ‘sinfonía neural’ del cerebro en acción ha sido un desafío fundamental en neurociencia durante más de 100 años, y ahora tenemos un método para hacer esto de manera confiable. “Aunque la tecnología está muy lejos de poder usarse para estudiar afecciones neurológicas como la epilepsia, ahora hemos superado un obstáculo importante para alcanzar ese objetivo. De hecho, algunas grabaciones de la actividad cerebral humana viva ya se han registrado en pacientes durante la cirugía, y nuestra técnica podría usarse para estudiar esas grabaciones para comprender mejor cómo funcionan nuestros cerebros, primero en salud y luego en enfermedad Una mejor comprensión de cómo funcionan nuestros cerebros podría allanar el camino para algunos avances innovadores en la ciencia médica, algunos de los cuales ya están en el horizonte. Las interfaces humano cerebro-computadora, o implantes neuronales, son una de esas posibilidades. La investigación en curso en el Instituto Weill de Neurociencias de la UCSF, por ejemplo, ha permitido a un hombre paralizado controlar un brazo robótico utilizando un implante neural durante un récord de siete meses. Al igual que el estudio actual, este trabajo también fue informado mediante el estudio de los patrones eléctricos en el cerebro de los animales y el uso de IA para reconocer automáticamente estos patrones. Los autores dicen que la nueva técnica para diferenciar los tipos de neuronas podría ayudar a mejorar los implantes neuronales al registrar con mayor precisión qué tipos de células están involucradas en acciones particulares, de modo que el implante pueda reconocer más fácilmente señales específicas y generar la respuesta adecuada. La clave de esta tecnología es comprender cómo funcionan nuestros cerebros cuando están sanos, para que cualquier daño pueda ser compensado. Si una persona tuvo un derrame cerebral y parte de su cerebro se dañó, por ejemplo, tendría que entender cómo funcionó esa parte antes de poder considerar el diseño de un implante para replicar esa funcionalidad. El profesor Michael Häusser, autor principal del estudio de la División de Medicina de la UCL y la Universidad de Hong Kong, dijo: «Este proyecto cobró vida gracias a la convergencia de tres innovaciones críticas: el uso de la biología molecular para ‘tag’ diferentes tipos de neuronas con

Leer más »

Solena eleva $6.7m para crear textiles de próxima generación utilizando IA y biología sintética

El spinout imperial escalará la actividad para crear una nueva generación de textiles sostenibles y de alto rendimiento utilizando una clase de fibras completamente nueva. Materiales Solena ha recaudado $6.7 millones (£5.1 millones) en fondos de semillas, luego de una ronda de financiación de pre-semillas de $4.1 millones (£3.1 millones) en 2022, que utilizará para producir fibras de proteínas a escala. La compañía utiliza técnicas de IA para diseñar fibras personalizadas a nivel molecular que luego se producen utilizando microbios diseñados. Sus técnicas de IA le permiten optimizar las características de rendimiento de las fibras, como la apariencia, la sensación manual y la resistencia a la tracción, y podrían dar como resultado moda nueva y de mayor rendimiento, ropa deportiva y textiles técnicos. Cofundador y CEO de Solenaa, Dr. James MacDonalddesarrolló las técnicas detrás de la compañía como investigador en Imperial en colaboración con sus otros cofundadores. “Weirre crea secuencias de proteínas que no existen en la naturaleza para tener las especificaciones de rendimiento que necesitamos y al mismo tiempo ser altamente fabricables,”, explicó. Profesor Paul Freemont, Solena co-fundador y Jefe de la Sección de Biología Estructural y Sintética en Imperialares Departamento de Enfermedades Infecciosas, dijo: “Esta extraordinaria tecnología está abriendo un paradigma completamente nuevo en el diseño de fibras de proteínas. James ha creado nuevas moléculas de proteínas que pueden formar fibras que actualmente no existen. Eso es realmente emocionante porque nadie ha podido hacer eso antes de – weiz siempre tuvo que confiar en lo que la naturaleza nos dio. Ahora estamos construyendo nuestras propias fibras proteicas a partir de los primeros principios. Esto será un cambio de paradigma.” Debido a que los microbios utilizados para producir las fibras utilizan materias primas renovables, las fibras de la empresa también podrían producirse a un costo ambiental más bajo que los textiles sintéticos hechos de petróleo y fibras naturales intensivas en recursos. Las fibras también son biodegradables, a diferencia de las fibras sintéticas tradicionales como el poliéster. Solena se lanzó en 2022 con locales en los Imperiales Incubadora de la Ciudad Blanca y más tarde I-HUB, y la inversión de pre-semilla de Insempra. Ahora ha recaudado más fondos en una ronda liderada por Sir David Harding, junto SynBioVen e Insempra. Utilizará la inversión para asumir una instalación más grande, con la ambición de permanecer cerca de Imperial. Esto permitirá a la compañía escalar la producción de sus nuevas fibras textiles en asociación con marcas de moda conocidas. Profesor Milo Shaffer, Solena co-fundador y Presidente en Química de Materiales en Imperial, dijo: “Solena es particularmente emocionante, no sólo como una nueva clase de fibras sostenibles de alto rendimiento para una amplia gama de aplicaciones, sino también como un ejemplo de un cambio de paradigma en la aceleración del descubrimiento de materiales. La combinación de diseño computacional con una evaluación rápida en forma de fibra, alimenta directamente la producción y la implementación ampliadas, explotando la tecnología textil establecida El Dr. MacDonald está compartiendo detalles de la inversión hoy en el SynBioBeta conferencia en California, cerca Imperial Global Estados Unidos, un centro que está ayudando a la universidad a construir vínculos con socios como empresas e inversores en los Estados Unidos. IMPERIAL News. D. S. Traducido al español

Leer más »

Reimaginando la seguridad para la Era de la IA

La IA es una de las tecnologías de más rápido crecimiento en la historia y es fácil ver por qué.   Todos vemos su valor en la vida cotidiana. Nos está ayudando a escribir correos electrónicos, resumir reuniones e incluso enseñar matemáticas a nuestros hijos. Y lo que estamos haciendo hoy es solo una fracción de lo que podremos hacer dentro de unos pocos años.   Creo que la IA será realmente un positivo neto para la sociedad y la economía. Pero tan inspirador y emocionante como es la IA, también nos presenta el desafío más difícil en la historia de la ciberseguridad. Irónicamente, si bien se ha culpado a la seguridad por ralentizar la adopción de tecnología en el pasado, creemos que adoptar el enfoque correcto para la seguridad hoy en día será realmente acelerar la adopción de la IA.    Esta semana en RSA en San Francisco, IiM presenta el caso de lo que hace que la IA sea un desafío de seguridad único. Y en Cisco, Weimve lanzó una gama de innovaciones diseñadas para ayudar a las empresas a equipar a sus equipos de ciberseguridad increíblemente sobrecargados de trabajo y con poco personal con las herramientas de IA que necesitan para proteger a sus empresas en esta era de IA.   ¿Qué tiene de difícil asegurar la IA de todos modos?   Todo comienza con los propios modelos de IA. A diferencia de las aplicaciones tradicionales, las aplicaciones de IA tienen modelos (a veces más de uno) integrado en su pila. Estos modelos son inherentemente impredecibles y no deterministas. En otras palabras, por primera vez, estamos asegurando sistemas que piensan, hablan y actúan de manera autónoma de manera que no podemos predecir completamente.  Eso es un cambio de juego para la ciberseguridad.    Con la IA, una violación de seguridad no se trata solo de que alguien robe datos privados o cierre un sistema. Ahora, se trata de la inteligencia central que impulsa a que su negocio se vea comprometido. Eso significa que millones de decisiones y acciones en curso podrían ser manipuladas en un instante. Y a medida que las empresas utilicen la IA en partes de misión crítica de sus organizaciones, las apuestas solo aumentarán.    ¿Cómo nos mantenemos seguros en el mundo de la IA?  En Cisco, estamos enfocados en ayudar a las operaciones de seguridad con poco personal y exceso de trabajo y a los líderes de TI a abordar esta nueva clase de riesgos relacionados con la IA. A principios de este año, lanzamos Defensa AI, la primera solución de este tipo. Brinda a los equipos de seguridad un sustrato común en toda su empresa, ayudándoles a ver en todas partes donde se está utilizando la IA; valida continuamente que los modelos de IA no están comprometidos; y hace cumplir las barandillas de seguridad en el camino.    También anunciamos recientemente una asociación con NVIDIA para entregar Fábricas de IA seguras que combinan la potencia informática de IA de NVIDIAia con nuestra tecnología de red para proteger los sistemas de IA en cada capa de la pila. Y hoy presentamos una nueva asociación con ServiceNow. Se están integrando Defensa AI en su plataforma para centralizar la gestión y gobernanza de riesgos de IA, facilitando a los clientes la visibilidad, reduciendo las vulnerabilidades y rastreando el cumplimiento. Esto garantiza que las organizaciones tengan una única fuente de verdad para administrar los riesgos y el cumplimiento de la IA.   En otros desarrollos en RSA esta semana, weitre también continúa cumpliendo con:   Puedes leer más sobre todo esto innovaciones aquí Finalmente, también presentamos Foundation AI, un nuevo equipo de los mejores expertos en IA y seguridad enfocados en acelerar la innovación para los equipos de seguridad cibernética. Este anuncio incluye el lanzamiento del primer modelo de razonamiento de peso abierto de la industria construido específicamente para la seguridad. La comunidad de seguridad necesitaba un modelo de IA y estamos encantados de abrir esta nueva área de innovación.    El modelo Foundation AI Security es un parámetro de 8 mil millones, de peso abierto LLM diseñado desde cero para la ciberseguridad. El modelo fue pre-entrenado en conjuntos de datos cuidadosamente seleccionados que capturan el lenguaje, la lógica y el conocimiento del mundo real y los flujos de trabajo con los que los profesionales de la seguridad trabajan todos los días. El modelo es:   Estamos lanzando este modelo y las herramientas asociadas como código abierto en un primer paso hacia la construcción de lo que llamamos Seguridad Super Inteligente.    A medida que trabajamos con la comunidad, desarrollaremos versiones afinadas de este modelo y crearemos agentes autónomos que trabajarán junto a los humanos en tareas y análisis de seguridad complejos. El objetivo es hacer que la seguridad funcione a escala de máquina y mantenernos muy por delante de los malos actores.    Puedes leer más sobre Fundación AI y su misión aquí.   La seguridad es un deporte de equipo  Decidimos abrir el modelo de Foundation AI Security porque, en ciberseguridad, el verdadero enemigo es el adversario que intenta explotar nuestros sistemas. Creo que la IA es el desafío de seguridad más difícil de la historia. Sin duda, eso significa que debemos trabajar juntos como industria para garantizar que la seguridad de la IA se incremente tan rápido como la IA que está cambiando tan rápidamente nuestro mundo.   CISCO Blog. P. J. Traducido al español

Leer más »

Preparando la vida en Marte con ANAFI Ai

7 Estudiantes del Institut Superieur de ligAeronautique et de lingEspace (ISAE-SUPAERO) y el Parrot ANAFI Ai pasaron 28 días en una Estación de Investigación ubicada en el desierto de UTAH, el lugar más cercano de la Tierra a las condiciones marcianas. La tripulación 311 utilizó su conocimiento y el Parrot ANAFI Ai para llevar a cabo misiones de fotogrametría y reconocimiento del terreno.  La Universidad de Florida y el CNRS y CNES franceses utilizan los datos recopilados para desarrollar estrategias de supervivencia en el planeta rojo. Parrot News. Traducido al español

Leer más »

Robotic system zeroes in on objects most relevant for helping humans

A new approach could enable intuitive robotic helpers for household, workplace, and warehouse settings. For a robot, the real world is a lot to take in. Making sense of every data point in a scene can take a huge amount of computational effort and time. Using that information to then decide how to best help a human is an even thornier exercise. Now, MIT roboticists have a way to cut through the data noise, to help robots focus on the features in a scene that are most relevant for assisting humans. Their approach, which they aptly dub “Relevance,” enables a robot to use cues in a scene, such as audio and visual information, to determine a human’s objective and then quickly identify the objects that are most likely to be relevant in fulfilling that objective. The robot then carries out a set of maneuvers to safely offer the relevant objects or actions to the human. The researchers demonstrated the approach with an experiment that simulated a conference breakfast buffet. They set up a table with various fruits, drinks, snacks, and tableware, along with a robotic arm outfitted with a microphone and camera. Applying the new Relevance approach, they showed that the robot was able to correctly identify a human’s objective and appropriately assist them in different scenarios. In one case, the robot took in visual cues of a human reaching for a can of prepared coffee, and quickly handed the person milk and a stir stick. In another scenario, the robot picked up on a conversation between two people talking about coffee, and offered them a can of coffee and creamer. Overall, the robot was able to predict a human’s objective with 90 percent accuracy and to identify relevant objects with 96 percent accuracy. The method also improved a robot’s safety, reducing the number of collisions by more than 60 percent, compared to carrying out the same tasks without applying the new method. “This approach of enabling relevance could make it much easier for a robot to interact with humans,” says Kamal Youcef-Toumi, professor of mechanical engineering at MIT. “A robot wouldn’t have to ask a human so many questions about what they need. It would just actively take information from the scene to figure out how to help.” Youcef-Toumi’s group is exploring how robots programmed with Relevance can help in smart manufacturing and warehouse settings, where they envision robots working alongside and intuitively assisting humans. Youcef-Toumi, along with graduate students Xiaotong Zhang and Dingcheng Huang, will present their new method at the IEEE International Conference on Robotics and Automation (ICRA) in May. The work builds on another paper presented at ICRA the previous year. Finding focus The team’s approach is inspired by our own ability to gauge what’s relevant in daily life. Humans can filter out distractions and focus on what’s important, thanks to a region of the brain known as the Reticular Activating System (RAS). The RAS is a bundle of neurons in the brainstem that acts subconsciously to prune away unnecessary stimuli, so that a person can consciously perceive the relevant stimuli. The RAS helps to prevent sensory overload, keeping us, for example, from fixating on every single item on a kitchen counter, and instead helping us to focus on pouring a cup of coffee. “The amazing thing is, these groups of neurons filter everything that is not important, and then it has the brain focus on what is relevant at the time,” Youcef-Toumi explains. “That’s basically what our proposition is.” He and his team developed a robotic system that broadly mimics the RAS’s ability to selectively process and filter information. The approach consists of four main phases. The first is a watch-and-learn “perception” stage, during which a robot takes in audio and visual cues, for instance from a microphone and camera, that are continuously fed into an AI “toolkit.” This toolkit can include a large language model (LLM) that processes audio conversations to identify keywords and phrases, and various algorithms that detect and classify objects, humans, physical actions, and task objectives. The AI toolkit is designed to run continuously in the background, similarly to the subconscious filtering that the brain’s RAS performs. The second stage is a “trigger check” phase, which is a periodic check that the system performs to assess if anything important is happening, such as whether a human is present or not. If a human has stepped into the environment, the system’s third phase will kick in. This phase is the heart of the team’s system, which acts to determine the features in the environment that are most likely relevant to assist the human. To establish relevance, the researchers developed an algorithm that takes in real-time predictions made by the AI toolkit. For instance, the toolkit’s LLM may pick up the keyword “coffee,” and an action-classifying algorithm may label a person reaching for a cup as having the objective of “making coffee.” The team’s Relevance method would factor in this information to first determine the “class” of objects that have the highest probability of being relevant to the objective of “making coffee.” This might automatically filter out classes such as “fruits” and “snacks,” in favor of “cups” and “creamers.” The algorithm would then further filter within the relevant classes to determine the most relevant “elements.” For instance, based on visual cues of the environment, the system may label a cup closest to a person as more relevant — and helpful — than a cup that is farther away. In the fourth and final phase, the robot would then take the identified relevant objects and plan a path to physically access and offer the objects to the human. Helper mode The researchers tested the new system in experiments that simulate a conference breakfast buffet. They chose this scenario based on the publicly available Breakfast Actions Dataset, which comprises videos and images of typical activities that people perform during breakfast time, such as preparing coffee, cooking pancakes, making cereal, and frying eggs. Actions in each video

Leer más »

El sistema robótico se concentra en los objetos más relevantes para ayudar a los humanos

Un nuevo enfoque podría permitir ayudantes robóticos intuitivos para entornos domésticos, laborales y de almacén. Para un robot, el mundo real es mucho para asimilar. Dar sentido a cada punto de datos en una escena puede requerir una gran cantidad de esfuerzo y tiempo computacional. Usar esa información para luego decidir cómo ayudar mejor a un humano es un ejercicio aún más espinoso. Ahora, los robotistas del MIT tienen una forma de cortar el ruido de los datos, para ayudar a los robots a centrarse en las características de una escena que son más relevantes para ayudar a los humanos. Su enfoque, que denominan acertadamente “Relevancia,” permite que un robot use señales en una escena, como información de audio y visual, para determinar un objetivo humanizado y luego identificar rápidamente los objetos que tienen más probabilidades de ser relevantes para cumplir ese objetivo. Luego, el robot lleva a cabo un conjunto de maniobras para ofrecer de manera segura los objetos o acciones relevantes al ser humano. Los investigadores demostraron el enfoque con un experimento que simuló un desayuno buffet de conferencia. Configuraron una mesa con varias frutas, bebidas, bocadillos y vajilla, junto con un brazo robótico equipado con un micrófono y una cámara. Aplicando el nuevo enfoque de Relevancia, demostraron que el robot pudo identificar correctamente un objetivo humano y ayudarlos adecuadamente en diferentes escenarios. En un caso, el robot tomó señales visuales de un humano que buscaba una lata de café preparado, y rápidamente le entregó a la persona leche y un palo de revuelo. En otro escenario, el robot retomó una conversación entre dos personas que hablaban de café y les ofreció una lata de café y crema. En general, el robot fue capaz de predecir un objetivo humano con una precisión del 90 por ciento e identificar objetos relevantes con una precisión del 96 por ciento. El método también mejoró la seguridad de una robot, reduciendo el número de colisiones en más del 60 por ciento, en comparación con la realización de las mismas tareas sin aplicar el nuevo método. “Este enfoque de habilitar la relevancia podría hacer que sea mucho más fácil para un robot interactuar con los humanos,” dice Kamal Youcef-Toumi, profesor de ingeniería mecánica en el MIT. “Un robot no tendría que hacerle tantas preguntas a un humano sobre lo que necesita. Simplemente tomaría activamente información de la escena para descubrir cómo ayudar.” El grupo Youcef-Toumiars está explorando cómo los robots programados con Relevance pueden ayudar en la fabricación inteligente y la configuración del almacén, donde imaginan robots trabajando junto y ayudando intuitivamente a los humanos. Youcef-Toumi, junto con los estudiantes graduados Xiaotong Zhang y Dingcheng Huang, presentarán su nuevo método en la Conferencia Internacional de Robótica y Automatización (ICRA) del IEEE en mayo. El trabajo se basa en otro papel presentado en ICRA el año anterior. Encontrar enfoque El enfoque de los equipos está inspirado en nuestra propia capacidad para medir qué es relevante en la vida diaria. Los seres humanos pueden filtrar las distracciones y centrarse en lo que es importante, gracias a una región del cerebro conocida como el Sistema de Activación Reticular (RAS). El RAS es un conjunto de neuronas en el tronco encefálico que actúa inconscientemente para eliminar estímulos innecesarios, de modo que una persona pueda percibir conscientemente los estímulos relevantes. El RAS ayuda a prevenir la sobrecarga sensorial, impidiéndonos, por ejemplo, fijarnos en cada artículo en un mostrador de la cocina y, en cambio, ayudarnos a concentrarnos en verter una taza de café. “Lo sorprendente es que estos grupos de neuronas filtran todo lo que no es importante, y luego hace que el cerebro se centre en lo que es relevante en ese momento, explica Youcef-Toumi. “Eso básicamente es lo que es nuestra propuesta.” Él y su equipo desarrollaron un sistema robótico que imita ampliamente la capacidad de los RASas para procesar y filtrar información de forma selectiva. El enfoque consta de cuatro fases principales. La primera es una etapa de ver y aprender “perception”, durante la cual un robot toma señales de audio y visuales, por ejemplo, de un micrófono y una cámara, que se alimentan continuamente en un kit de herramientas AI “.” Este kit de herramientas puede incluir un modelo de lenguaje grande (LLM) que procesa conversaciones de audio para identificar palabras clave y frases, y varios algoritmos que detectan y clasifican objetos, humanos, acciones físicas y objetivos de tareas. El kit de herramientas de IA está diseñado para ejecutarse continuamente en segundo plano, de manera similar al filtrado subconsciente que realiza el RAS cerebral. La segunda etapa es una fase “trigger check”, que es una verificación periódica que el sistema realiza para evaluar si algo importante está sucediendo, como si un humano está presente o no. Si un ser humano ha entrado en el medio ambiente, la tercera fase de systemas se activará. Esta fase es el corazón del sistema de equipos, que actúa para determinar las características en el entorno que probablemente sean relevantes para ayudar al ser humano. Para establecer la relevancia, los investigadores desarrollaron un algoritmo que toma predicciones en tiempo real hechas por el kit de herramientas de IA. Por ejemplo, el LLM de toolkitiks puede captar la palabra clave “coffee,” y un algoritmo de clasificación de acción puede etiquetar a una persona que busca una taza como teniendo el objetivo de “hacer café.” El método de relevancia de los equipos tendría en cuenta esta información para determinar primero la “clase” de objetos que tienen la mayor probabilidad de ser relevantes para el objetivo de “hacer café.” Esto podría filtrar automáticamente clases como “frutas” y “bocadillos,” a favor de “tazas” y “cremas.” El algoritmo luego se filtraría aún más dentro de las clases relevantes para determinar los “elementos más relevantes.” Por ejemplo, basado en señales visuales del entorno,el sistema puede etiquetar una taza más cercana a una persona como más relevante — y útil — que una taza que está más lejos. En la cuarta y última fase, el robot tomaría

Leer más »

#FAUinsights: Tecnologías para un mundo móvil

Serie de eventos que comienza el miércoles 21 de mayo en el Energy Campus Nuremberg La forma en que viajaremos en el futuro será fundamentalmente diferente a la de hoy. En el ciclo de eventos #FAUinsights, expertos de la ciencia y la industria abordaron el tema durante un total de siete noches a partir del miércoles 21 de mayo y examinaron aspectos muy diferentes: ¿Hacia dónde se dirige la movilidad en la ciudad? ¿Qué tan segura es la conducción autónoma? ¿Dónde están los límites de la movilidad eléctrica? ¿Qué tecnologías darán forma al futuro móvil? #FAUinsights está organizado por la Universidad Friedrich-Alexander Erlangen-Nuremberg (FAU) junto con el Energy Campus Nuremberg (EnCN). El ciclo de conferencias comienza el miércoles 21 de mayo y se centra en la revolución actual en la producción de automóviles. Tras la bienvenida del presidente de la FAU, Prof. Dr. Joachim Hornegger, el Prof. Dr. Jörg Franke echa una primera mirada al futuro. El titular de la Cátedra de Automatización de Fabricación y Sistemas de Producción demuestra las posibilidades completamente nuevas que ofrecen los accionamientos eléctricos para las arquitecturas de vehículos y para la individualización. En el resto del semestre de verano, los visitantes podrán encontrarse con una amplia gama de temas, desde la movilidad en zonas urbanas y los vuelos respetuosos con el medio ambiente hasta la computación cuántica y los retrasos en los trenes. Las conferencias ofrecen al público interesado, a los estudiantes, así como a los representantes del mundo empresarial y político, información sobre las últimas investigaciones, los avances tecnológicos y las condiciones marco políticas. Los eventos tendrán lugar en el Energy Campus Nuremberg, “Auf AEG”, Fürther Str. 250, Núremberg. La duración es a partir de las 17:30 horas. hasta las 19:00 horas. Todas las conferencias también están disponibles vía transmisión en vivo.A la transmisión en vivo Todas las fechas y temas de un vistazo: Abrir todo 21 de mayo: La tercera revolución en la producción de automóviles 28 de mayo: Repensando la movilidad eléctrica 4 de junio: Movilidad en zonas urbanas 18 de junio: De la ciencia ficción a la realidad 25 de junio: Vuelo respetuoso con el medio ambiente 2 de julio: ¿Motor de combustión, coche eléctrico o hidrógeno? 9 de julio: Del caos a la precisión Información detallada FAU News. Traducido al español

Leer más »
Scroll al inicio