El Portal de las Tecnologías para la Innovación

Categoría: La IA aplicada a la Educación

¿Puede la IA mejorar las carnes de origen vegetal?

Los ingenieros de Stanford están probando alimentos utilizando un enfoque que combina una técnica mecánica tridimensional e IA para imitar nuestra experiencia sensorial. Reducir la ingesta de proteínas animales en nuestra dieta puede ahorrar recursos y emisiones de gases de efecto invernadero, pero convencer a los consumidores amantes de la carne de que cambien su menú es todo un desafío. Al analizar este problema desde un ángulo de ingeniería mecánica, los ingenieros de Stanford están desarrollando un nuevo método para analizar la textura de los alimentos que podría allanar el camino para crear filetes falsos que engañen incluso a los carnívoros más empedernidos. En un nuevo artículo publicado en Science of Food , el equipo demostró que una combinación de pruebas mecánicas y aprendizaje automático puede describir la textura de los alimentos con una sorprendente similitud con la de los catadores humanos. Este método podría acelerar el desarrollo de nuevas y mejores carnes de origen vegetal. El equipo también descubrió que algunos productos de origen vegetal ya tienen la textura exacta de las carnes que imitan. “Nos sorprendió descubrir que los productos vegetales actuales pueden reproducir todo el espectro de texturas de las carnes animales”, afirmó Ellen Kuhl , profesora de ingeniería mecánica y autora principal del estudio. Los sustitutos de la carne han recorrido un largo camino desde que el tofu era la única opción, añadió. La ganadería industrial contribuye al cambio climático, la contaminación, la pérdida de hábitat y la resistencia a los antibióticos. Esa carga sobre el planeta se puede aliviar sustituyendo las proteínas animales por proteínas vegetales en la dieta. Un estudio estimó que las carnes de origen vegetal tienen, en promedio, la mitad del impacto ambiental que la carne animal. Pero muchos consumidores de carne se muestran reacios a cambiar: solo alrededor de un tercio de los estadounidenses en una encuesta indicó que era “muy probable” o “extremadamente probable” que compraran alternativas de origen vegetal. “A la gente le encanta la carne”, dijo Skyler St. Pierre , estudiante de doctorado en ingeniería mecánica y autor principal del artículo. “Si queremos convencer a los consumidores incondicionales de carne de que vale la pena probar alternativas, cuanto más podamos imitar la carne animal con productos de origen vegetal, más probabilidades habrá de que la gente esté dispuesta a probar algo nuevo”. Para imitar con éxito la carne animal, los científicos especializados en alimentos analizan la textura de los productos cárnicos de origen vegetal. Lamentablemente, los métodos tradicionales de análisis de alimentos no están estandarizados y los resultados rara vez se ponen a disposición de la ciencia y del público, afirmó St. Pierre. Esto dificulta que los científicos colaboren y creen nuevas recetas para alternativas. Nuevas pruebas de textura de alimentos La investigación surgió de un proyecto de clase de St. Pierre. En busca de materiales asequibles para utilizar en pruebas mecánicas, recurrió a los perritos calientes y al tofu. Durante el verano de 2023, investigadores universitarios se unieron para probar los alimentos y aprender cómo los ingenieros representan las respuestas de los materiales al estrés, la carga y el estiramiento. Al darse cuenta de cómo este trabajo podría ayudar al desarrollo de carnes de origen vegetal, el equipo de Stanford estrenó una prueba de alimentos tridimensional. Pusieron a prueba ocho productos: perritos calientes de origen animal y vegetal, salchichas de origen animal y vegetal, pavo de origen animal y vegetal, y tofu extra firme y firme. Montaron trozos de carne en una máquina que tiraba, empujaba y cortaba las muestras. «Estos tres modos de carga representan lo que haces cuando masticas», dijo Kuhl, quien también es el director Catherine Holman Johnson de Stanford Bio-X y el profesor Walter B. Reinhold en la Escuela de Ingeniería . Una prueba mecánica de carne vegetal puede ayudar a cuantificar la textura de los alimentos. | Kurt Hickman Luego, utilizaron aprendizaje automático para procesar los datos de estas pruebas: diseñaron un nuevo tipo de red neuronal que toma los datos sin procesar de las pruebas y produce ecuaciones que explican las propiedades de las carnes. Para comprobar si estas ecuaciones pueden explicar la percepción de la textura, el equipo llevó a cabo una encuesta de prueba. Los participantes, que primero completaron encuestas sobre su apertura a nuevos alimentos y su afición a la carne, comieron muestras de los ocho productos y los calificaron en una escala de cinco puntos en 12 categorías: blando, duro, quebradizo, masticable, gomoso, viscoso, elástico, pegajoso, fibroso, grasiento, húmedo y parecido a la carne. Impresionantes perritos calientes y salchichas En las pruebas mecánicas, el perrito caliente y la salchicha de origen vegetal se comportaron de forma muy similar en las pruebas de tracción, empuje y cizallamiento a sus homólogos animales, y mostraron rigideces similares. Mientras tanto, el pavo de origen vegetal fue el doble de rígido que el pavo animal, y el tofu fue mucho más blando que los productos cárnicos. Sorprendentemente, los evaluadores humanos también clasificaron la rigidez de los perritos calientes y las salchichas de forma muy similar a las pruebas mecánicas. «Lo que es realmente genial es que la clasificación de las personas fue casi idéntica a la clasificación de la máquina», dijo Kuhl. «Eso es genial porque ahora podemos usar la máquina para tener una prueba cuantitativa, muy reproducible». Los hallazgos sugieren que los nuevos métodos basados ​​en datos son prometedores para acelerar el proceso de desarrollo de productos vegetales sabrosos. “En lugar de utilizar un enfoque de prueba y error para mejorar la textura de la carne vegetal, podríamos imaginar el uso de inteligencia artificial generativa para generar científicamente recetas de productos cárnicos vegetales con las propiedades deseadas con precisión”, escribieron los autores en el artículo. Pero el desarrollo de recetas de inteligencia artificial, al igual que otras IA, necesita una gran cantidad de datos. Por eso, el equipo comparte sus datos en línea, de modo que otros investigadores puedan verlos y agregarlos. “Históricamente, algunos investigadores, y especialmente las empresas, no comparten sus datos y eso es una gran barrera para la innovación”, dijo St. Pierre. Sin compartir información y trabajar juntos, agregó, “¿cómo vamos a crear un imitador

Leer más »

[Un día en la vida] Aspectos esenciales para estudiantes de primer año: cómo navegar por la vida universitaria con Galaxy Book4 Edge

El teclado del Galaxy Book4 Edge cuenta con una tecla Copilot dedicada, una nueva incorporación que no se vio en las series Galaxy Book anteriores.  La mayoría de los estudiantes universitarios intentan mantener sus calificaciones al día mientras buscan experiencias enriquecedoras a través del desarrollo personal y los viajes. A pesar de esforzarse por tener una jornada equilibrada de estudios y superación personal, los estudiantes a menudo se encuentran con una agenda repleta de tareas, proyectos en equipo y más. Para gestionar estas exigencias, los estudiantes universitarios necesitan herramientas potentes que les permitan mantenerse al día con sus tareas desde cualquier lugar. Presentamos Galaxy Book4 Edge, la última PC con Windows 11 de Samsung Electronics, diseñada para ofrecer un rendimiento incomparable y mantener a las personas ocupadas en el camino correcto. Samsung Newsroom descubrió cómo Galaxy Book4 Edge puede ayudar a los estudiantes universitarios y a otros usuarios a maximizar la eficiencia y mantenerse organizados. ▲ Galaxy Book4 Edge Agilice las tareas con una PC con inteligencia artificial Es fácil sentirse abrumado cuando las tareas comienzan a acumularse. Aquí es donde entran en juego las potentes capacidades de inteligencia artificial del Galaxy Book4 Edge. Equipado con el procesador Snapdragon® X Elite de Qualcomm con una unidad de procesamiento de red neuronal (NPU) que ofrece hasta 45 billones de operaciones por segundo (TOPS), 1 el Galaxy Book4 Edge permite un rápido procesamiento de inteligencia artificial y optimiza la productividad de los usuarios. En colaboración con Microsoft, el Galaxy Book4 Edge es el primer PC Copilot+ de la serie Galaxy Book que combina capacidades de inteligencia artificial en la nube y en el dispositivo. Esta integración permite la recopilación y organización eficiente de datos para reducir drásticamente el tiempo necesario para las tareas. ▲ (De izquierda a derecha) Tecla de copiloto y ventana de inicio de copiloto El teclado del Galaxy Book4 Edge cuenta con una tecla Copilot dedicada, una nueva incorporación que no se vio en las series Galaxy Book anteriores. Con un solo toque, los usuarios pueden evitar la molestia de escribir términos de búsqueda en los motores de búsqueda. En cambio, Copilot se inicia instantáneamente, por lo que los usuarios pueden invocar su propio asistente de inteligencia artificial en cualquier momento. Cuando los usuarios desean recopilar información, pueden hacerle una pregunta a Copilot para encontrar rápida y fácilmente la información que necesitan. ▲ Resumir vídeos en Copilot Además de navegar por Internet, Copilot se puede utilizar para comprender los puntos principales de un vídeo. Copilot puede resumir los puntos clave de cada escena, lo que permite a los usuarios comprender sin esfuerzo la historia completa sin tener que ver el vídeo entero. ▲ Subtítulos en vivo con traducción Además, buscar información en videos sin subtítulos nunca ha sido tan fácil. Live Captions con traducción genera y traduce automáticamente subtítulos de 44 idiomas al inglés, incluso sin conexión a Internet. 2 Los videos en un idioma diferente se traducirán automáticamente al inglés, lo que facilita la comprensión de los usuarios. Conectividad perfecta entre teléfonos inteligentes y computadoras Transferir archivos desde un teléfono inteligente a una PC puede resultar un inconveniente, especialmente cuando se prepara un informe o una presentación en una computadora portátil que requiere fotos o datos de un teléfono. El Galaxy Book4 Edge soluciona este problema al conectarse sin problemas con dispositivos móviles para crear una experiencia unificada que maximiza la comodidad y la versatilidad. ▲ Control múltiple Multi Control transforma el teléfono inteligente del usuario en un submonitor para su PC con Windows, lo que le permite cambiar sin esfuerzo entre los dos dispositivos. Esta función facilita la tarea de arrastrar y soltar fotos y archivos desde los teléfonos inteligentes, organizando todo lo que los usuarios necesitan en un solo lugar. ▲ Enlace a Windows Al conectar un teléfono inteligente Galaxy al Galaxy Book4 Edge a través de Link to Windows, las funciones de Galaxy AI que son exclusivas de los dispositivos móviles se pueden utilizar en la pantalla más grande de la PC. Las herramientas de edición de fotografías, como Photo Assist (que permite a los usuarios seleccionar, mover o borrar objetos en fotografías tomadas con un teléfono inteligente Galaxy), son de fácil acceso en la PC para crear imágenes de alta calidad. Además, la pantalla táctil del Galaxy Book4 Edge permite a los usuarios realizar selecciones detalladas para una edición precisa. Una vez finalizado, los archivos se pueden transferir desde la pantalla duplicada a la PC para subirlos a las redes sociales o pegarlos directamente en un documento. La herramienta definitiva para proyectos en equipo Al trabajar en un proyecto en equipo, la comunicación entre los miembros es fundamental. Galaxy Book4 Edge fomenta una comunicación más eficaz y eficiente con varias personas o miembros del equipo. ▲ Cocreador en Paint La función Cocreator de Paint aprovecha la inteligencia artificial para dar vida a las ideas de los usuarios en función de los comandos que ingresan. Ahora, los miembros del equipo pueden compartir sus pensamientos de manera más intuitiva, incluso si no se sienten seguros al dibujar. Las ideas se pueden comunicar con mayor claridad, lo que en última instancia mejora la colaboración y estimula la creatividad en todo el equipo. ▲ El intérprete de Galaxy AI en una PC mediante un enlace a Windows La función Intérprete de Galaxy AI facilita la comunicación entre miembros de equipos extranjeros, incluso cuando trabajan con documentos. Al eliminar las barreras lingüísticas, Intérprete fomenta una colaboración más eficaz en proyectos de equipos globales. Prepárese para viajar de forma más inteligente  No importa cuán ocupada esté la universidad, no se debe desaprovechar la oportunidad de explorar nuevos lugares y adquirir experiencias diversas. Si bien planificar un viaje puede parecer abrumador, la Galaxy Book4 Edge está presente en cada paso del camino, para que los preparativos del viaje sean más inteligentes y eficientes. ▲ (De izquierda a derecha) Live Translate y Chat Assist de Galaxy AI en una PC a través de un enlace a Windows Al conectar el Galaxy Book4 Edge con un teléfono inteligente Galaxy

Leer más »

Samsung se enorgullece de invertir en programas educativos que empoderan a los jóvenes

La empresa de tecnología entiende la necesidad de un acceso equitativo a la educación y por eso invierte en iniciativas que impactan positivamente y equipan a los estudiantes para el éxito El Día Internacional de los Estudiantes, que se celebra el 17 de noviembre, destaca el papel vital que desempeña la educación en la configuración del futuro. A nivel mundial, la inversión en educación y el apoyo a los estudiantes no solo empodera a las personas, sino que también contribuye significativamente al crecimiento económico y la innovación. La educación es un derecho humano y, según el Secretario General de las Naciones Unidas, Ban Ki-moon, “la educación es un derecho fundamental y la base del progreso en todos los países”. Sin embargo, en América Latina, millones de estudiantes aún enfrentan barreras para obtener una educación de calidad y el desarrollo de habilidades. Abordar estos desafíos es esencial para crear una sociedad más inclusiva y próspera. A través de sus iniciativas de Ciudadanía Corporativa, Samsung tiene como objetivo contribuir en el cierre de esta brecha invirtiendo en programas educativos que empoderen a los jóvenes. En línea con su visión de RSE, “¡Juntos por el mañana! Empoderando a las personas”, el compromiso de Samsung con la educación está impulsado por una misión de nutrir a jóvenes innovadores que puedan convertirse en futuros líderes e impulsores del cambio social. “Al celebrar el Día Internacional de los Estudiantes, nos complace destacar el compromiso de Samsung de empoderar a las mentes jóvenes a través de programas globales como Solve for Tomorrow (SFT), que alienta a los estudiantes a incorporar la metodología STEM para desarrollar soluciones innovadoras para sus comunidades, y Samsung Innovation Campus (SIC), cuyo objetivo es equipar a los estudiantes jóvenes y adultos con habilidades esenciales de TIC para la 4ª Revolución Industrial, como IA, IoT y Big Data”, dijo María Fernanda Hernández, gerente de Ciudadanía Corporativa de Samsung para Centroamérica, el Caribe, Ecuador y Venezuela. Los principales esfuerzos de Samsung a nivel de programas de responsabilidad social se centran en: Al dotar a los estudiantes de habilidades esenciales, Samsung fomenta el crecimiento personal y social, creando un impacto sostenible que va más allá de las operaciones comerciales tradicionales. En América Latina, Samsung se centra especialmente en iniciativas que brindan a los estudiantes acceso a la tecnología, los recursos y el apoyo necesarios para sobresalir, contribuyendo así a un mejor futuro para todos. Samsung News. Traducido al español

Leer más »

Intel impulsa el desarrollo de la IA con contribuciones a PyTorch 2.5

Las nuevas características mejoran la experiencia de programación para los desarrolladores de IA en el centro de datos y el hardware del cliente, ampliando el soporte para las GPU Intel. Los desarrolladores que trabajan en inteligencia artificial (IA) pueden acceder a un soporte ampliado para las GPU de Intel en PyTorch* 2.5, que se lanzó recientemente con contribuciones de Intel. Las GPU compatibles incluyen gráficos discretos Intel® Arc™ , procesadores Intel® Core™ Ultra con gráficos Intel® Arc™ integrados e Intel® Data Center GPU Max Series 1 . Estas nuevas funciones ayudan a promover flujos de trabajo de aprendizaje automático acelerados dentro del ecosistema de PyTorch y brindan una experiencia y un soporte consistentes para los desarrolladores. Los desarrolladores de aplicaciones e investigadores que buscan ajustar, inferir y experimentar con los modelos de PyTorch en las PC Intel Core Ultra AI ahora podrán instalar PyTorch directamente con versiones de vista previa y versiones binarias nocturnas para Windows, Linux y Windows Subsystem for Linux 2. Las nuevas características incluyen: Además, PyTorch 2.5 incorpora mejoras y nuevas funciones para las últimas CPU de centros de datos de Intel. El tipo de datos FP16 está habilitado y optimizado a través de Intel® Advanced Matrix Extensions tanto para el modo entusiasta como para TorchInductor para mejorar las capacidades de inferencia en las últimas plataformas de CPU de centros de datos de Intel, como los procesadores Intel® Xeon® 6. El backend C++ de TorchInductor también está disponible en Windows para brindar una mejor experiencia de usuario a los desarrolladores de IA en entornos Windows. 1 La serie Intel Data Center GPU Max está disponible solo en Intel® Tiber™ AI Cloud Los resultados de rendimiento se basan en pruebas realizadas en las fechas que se muestran en las configuraciones y es posible que no reflejen todas las actualizaciones disponibles públicamente. Consulte la copia de seguridad para obtener detalles de la configuración.Intel no controla ni audita los datos de terceros. Debe consultar otras fuentes para evaluar la precisión. Intel News. Traducido al español

Leer más »

Análisis del comportamiento en ratones: resultados más precisos a pesar de tener menos animales

Los investigadores de la ETH de Zúrich utilizan inteligencia artificial para analizar de forma más eficiente el comportamiento de los ratones de laboratorio y reducir el número de animales en los experimentos. En resumen Existe una tarea específica en la que los investigadores del estrés que realizan experimentos con animales deben ser especialmente hábiles. Esto también se aplica a los investigadores que desean mejorar las condiciones en las que se mantienen los animales de laboratorio. Deben ser capaces de evaluar el bienestar de sus animales basándose en observaciones de comportamiento, ya que, a diferencia de lo que ocurre con los humanos, no pueden simplemente preguntarles cómo se sienten. Los investigadores del grupo dirigido por Johannes Bohacek, catedrático del Instituto de Neurociencia de la ETH de Zúrich, han desarrollado ahora un método que mejora significativamente el análisis del comportamiento de los ratones. El proceso utiliza el análisis automatizado del comportamiento mediante visión artificial e inteligencia artificial. Se filman los ratones y las grabaciones de vídeo se analizan automáticamente. Si bien el análisis del comportamiento animal solía requerir muchos días de minucioso trabajo manual (y todavía lo requiere en la mayoría de los laboratorios de investigación actuales), los laboratorios más importantes del mundo han pasado a métodos eficientes de análisis automatizado del comportamiento en los últimos años. Dilema estadístico resuelto Un problema que esto genera es la gran cantidad de datos que se generan. Cuantos más datos y mediciones haya disponibles y más sutiles sean las diferencias de comportamiento que se deben reconocer, mayor será el riesgo de ser engañado por artefactos. Por ejemplo, estos pueden incluir un proceso automatizado que clasifique un comportamiento como relevante cuando no lo es. Las estadísticas presentan la siguiente solución simple a este dilema: es necesario realizar pruebas con más animales para anular los artefactos y aún así obtener resultados significativos. “De esta manera contribuimos a una investigación biomédica más ética y más eficiente”.Johannes Bohaček El nuevo método de los investigadores de la ETH permite obtener resultados significativos y reconocer diferencias sutiles de comportamiento entre los animales incluso en grupos más pequeños, lo que ayuda a reducir el número de animales en los experimentos y aumenta la utilidad de un experimento con un solo animal. Por lo tanto, apoya los esfuerzos de la ETH de Zúrich y otras instituciones de investigación en el campo de las 3R. Las 3R significan reemplazar, reducir y refinar, lo que significa intentar reemplazar los experimentos con animales con métodos alternativos o reducirlos mediante mejoras en la tecnología o el diseño experimental. La estabilidad del comportamiento en el punto de mira El método de los investigadores de la ETH no sólo aprovecha los numerosos patrones aislados y muy específicos del comportamiento de los animales, sino que también se centra en las transiciones de un comportamiento a otro. Algunos de los patrones de comportamiento típicos de los ratones incluyen ponerse de pie sobre sus patas traseras cuando sienten curiosidad, permanecer cerca de las paredes de la jaula cuando son cautelosos y explorar objetos que son nuevos para ellos cuando se sienten audaces. Incluso un ratón que se queda quieto puede ser informativo: el animal está particularmente alerta o inseguro. Las transiciones entre estos patrones son significativas: un animal que cambia rápidamente y con frecuencia entre ciertos patrones puede estar nervioso, estresado o tenso. Por el contrario, un animal relajado o confiado suele mostrar patrones de comportamiento estables y cambia entre ellos de forma menos abrupta. Estas transiciones son complejas. Para simplificarlas, el método las combina matemáticamente en un único valor significativo, lo que hace que los análisis estadísticos sean más robustos. Comparabilidad mejorada El profesor Bohacek, de la Escuela Politécnica Federal de Alemania, es neurocientífico e investigador del estrés. Entre otras cosas, investiga qué procesos cerebrales determinan si un animal es mejor o peor a la hora de afrontar situaciones estresantes. “Si podemos utilizar análisis de comportamiento para identificar –o, mejor aún, predecir– la capacidad de un individuo para manejar el estrés, podremos examinar los mecanismos cerebrales específicos que influyen en ello”, afirma. De estos análisis podrían derivarse posibles opciones terapéuticas para determinados grupos humanos de riesgo. Con este nuevo método, el equipo de la ETH ya ha podido averiguar cómo reaccionan los ratones al estrés y a determinados medicamentos en experimentos con animales. Gracias a la magia de la estadística, se pueden reconocer incluso diferencias sutiles entre animales individuales. Por ejemplo, los investigadores han logrado demostrar que el estrés agudo y el estrés crónico modifican el comportamiento de los ratones de forma diferente. Estos cambios también están relacionados con diferentes mecanismos en el cerebro. El nuevo enfoque también aumenta la estandarización de las pruebas, lo que permite comparar mejor los resultados de una variedad de experimentos, incluso aquellos realizados por diferentes grupos de investigación. Promoción del bienestar animal en la investigación “Si utilizamos inteligencia artificial y aprendizaje automático para el análisis del comportamiento, contribuimos a una investigación biomédica más ética y eficiente”, afirma Bohacek. Él y su equipo llevan años trabajando en el tema de la investigación 3R. Para ello han creado el 3R Hub en la ETH, cuyo objetivo es influir positivamente en el bienestar animal en la investigación biomédica. «El nuevo método es el primer gran éxito del ETH 3R Hub, y estamos orgullosos de ello», afirma Oliver Sturman, director del Hub y coautor de este estudio. El 3R Hub contribuye ahora a que el nuevo método esté disponible para otros investigadores de la ETH y de otras instituciones. «Los análisis como el nuestro son complejos y requieren una amplia experiencia», explica Bohacek. «La introducción de nuevos enfoques 3R suele ser un gran obstáculo para muchos laboratorios de investigación». Esta es precisamente la idea detrás del 3R Hub: permitir la difusión de estos enfoques mediante el apoyo práctico para mejorar el bienestar animal. ETH zürich. Traducido al español

Leer más »

Simular cómo las moscas de la fruta ven, huelen y navegan

Los científicos de la EPFL han mejorado su modelo NeuroMechFly, que simula el movimiento de la mosca de la fruta en el mundo real. Con visión y olfato integrados, nos ayuda a comprender la coordinación entre el cerebro y el cuerpo, abriendo el camino para el papel de la neuroingeniería en la robótica y la inteligencia artificial. Todos los animales, grandes o pequeños, deben moverse con una precisión increíble para interactuar con el mundo. Comprender cómo el cerebro controla el movimiento es una cuestión fundamental en neurociencia. Para los animales más grandes, esto es un desafío debido a la complejidad de sus cerebros y sistemas nerviosos. Pero la mosca de la fruta, Drosophila melanogaster, tiene un cerebro más pequeño y, por lo tanto, más fácil de mapear, lo que permite a los científicos obtener información detallada sobre cómo su sistema nervioso impulsa el comportamiento. Para entender cómo el sistema nervioso controla las acciones, los investigadores del grupo de Pavan Ramdya en la EPFL crearon una realidad simulada en la que una mosca virtual puede operar y responder como lo hacen las moscas reales. Este programa, conocido como NeuroMechFly v2, implementa un modelo neuromecánico que va más allá de las funciones motoras básicas. Al incorporar detección visual y olfativa, terrenos complejos y retroalimentación motora fina, NeuroMechFly v2 simula cómo una mosca de la fruta se desplazaría por su entorno mientras reacciona a imágenes, olores y obstáculos. Simulación de detección y movimiento en la vida real La investigación de Ramdya se ha centrado en replicar digitalmente los principios que subyacen al control motor de la Drosophila . En 2019, su grupo publicó DeepFly3D , un software que utiliza el aprendizaje profundo para capturar cómo se mueven las patas de la mosca basándose en imágenes de varias cámaras. En 2021, el equipo de Ramdya reveló LiftPose3D , un método para reconstruir poses de animales en 3D a partir de imágenes tomadas con una sola cámara. Estos esfuerzos se complementaron con su publicación en 2022 de NeuroMechFly , un primer «gemelo» digital morfológicamente preciso de la Drosophila . Con la segunda versión de NeuroMechFly, los investigadores han añadido características detalladas que imitan la anatomía y la fisiología de la mosca real. Por ejemplo, han actualizado cuidadosamente los ángulos de las patas y las articulaciones para que coincidan mejor con la biomecánica de los movimientos de la mosca de la fruta real. El «cerebro» del modelo ahora puede procesar información visual y olfativa a través de ojos y antenas virtuales, lo que le proporciona una experiencia sensorial cercana a la de una mosca de la fruta real. Esta configuración permite a NeuroMechFly v2 simular diferentes estrategias de control para tareas de la vida real, como caminar sobre terreno accidentado o girar en respuesta a olores y señales visuales. El equipo ha demostrado un comportamiento realista de las moscas en diferentes condiciones. Por ejemplo, el modelo puede seguir visualmente un objeto en movimiento o navegar hacia una fuente de olor, mientras evita obstáculos en su camino. Modelado de actividades neuronales para comprender los principales comportamientos de la mosca de la fruta NeuroMechFly también permite a los investigadores inferir actividades neuronales en el cerebro basándose en la experiencia de la mosca en el mundo virtual. “Al interconectar NeuroMechFly v2 con un modelo computacional recientemente publicado del sistema visual de la mosca , los investigadores pueden leer no solo lo que la mosca está viendo en el entorno simulado, sino también cómo podrían estar respondiendo las neuronas reales”, dice Sibo Wang-Chen, quien dirigió la investigación. Con acceso a estas actividades neuronales, los científicos modelaron cómo la mosca podría perseguir a otra mosca (por ejemplo, durante el cortejo) de una manera biológicamente plausible. Esto fue posible gracias al sistema de control jerárquico del modelo, que permite que las funciones «cerebrales» de nivel superior interactúen con las funciones motoras de nivel inferior, una organización que imita la forma en que los animales reales procesan la información sensorial y controlan sus cuerpos. Por último, los investigadores también pueden utilizar NeuroMechFly v2 para estudiar cómo el cerebro integra las señales sensoriales para mantener una conciencia del estado del animal. Para demostrarlo, el equipo de Ramdya replicó la capacidad de la mosca de utilizar las señales de retroalimentación de los movimientos de las patas para realizar un seguimiento de su ubicación, un comportamiento denominado integración de trayectorias. Esta característica permite a la mosca simulada «saber» dónde está, incluso cuando sus entradas visuales son limitadas. Este tipo de procesamiento sensorial de circuito cerrado es un sello distintivo de la inteligencia biológica y un hito fundamental para la neuroingeniería. La coordinación cerebro-cuerpo para inspirar la robótica y la IA En conjunto, NeuroMechFly v2 permite a los investigadores investigar cómo el cerebro controla comportamientos cruciales mediante modelos computacionales. Esto allana el camino para obtener conocimientos más profundos sobre la coordinación cerebro-cuerpo, especialmente para especies con sistemas sensoriomotores complejos. En el futuro, este modelo podría servir como modelo para diseñar robots que naveguen utilizando señales sensoriales, como el seguimiento de olores o el ajuste de movimientos para estabilizar las imágenes, como animales reales que exploran sus entornos. Al mejorar los modelos de aprendizaje automático que controlan estas simulaciones, los investigadores también pueden aprender cómo la inteligencia animal puede allanar el camino para sistemas de IA que sean más autónomos, robustos y receptivos a su entorno. EPFL. N. P. Traducido al español

Leer más »

IBM promueve la inteligencia artificial generativa y la automatización para proteger la seguridad en los entornos de AWS

Cada día, los satélites de la NASA orbitan la Tierra y capturan una gran cantidad de información que nos ayuda a comprender nuestro planeta.  Desde el monitoreo de incendios forestales hasta el seguimiento del cambio climático, este vasto conjunto de datos de las ciencias de la Tierra tiene el potencial de impulsar descubrimientos científicos, fundamentar decisiones políticas y respaldar industrias como la agricultura, la planificación urbana y la respuesta ante desastres. Pero navegar por los más de 100 petabytes de datos recopilados puede ser un desafío, por lo que la NASA ha colaborado con Microsoft para explorar el uso de un copiloto personalizado utilizando Azure OpenAI Service para desarrollar el Earth Copilot de la NASA, que podría transformar la forma en que las personas interactúan con los datos de la Tierra. Los datos geoespaciales son complejos y, a menudo, se requiere un cierto nivel de conocimientos técnicos para manejarlos. Como resultado, estos datos tienden a ser accesibles solo para un número limitado de investigadores y científicos. A medida que la NASA recopila más datos de nuevos satélites, estas complejidades no hacen más que crecer y pueden limitar aún más el grupo potencial de personas capaces de extraer información y desarrollar aplicaciones que podrían beneficiar a la sociedad. Reconociendo este desafío, la NASA se embarcó en una misión para hacer que sus datos sean más accesibles y fáciles de usar. A través de la Oficina del Director de Datos Científicos de la NASA, la agencia busca democratizar el acceso a los datos, derribando barreras técnicas para empoderar a una amplia gama de audiencias, desde científicos y educadores hasta formuladores de políticas y el público en general. El desafío: navegar por la complejidad de los datos El Programa de Sistemas de Datos de Ciencias de la Tierra de la NASA es responsable de recopilar una increíble variedad de datos de sensores e instrumentos espaciales. Estos datos abarcan desde las condiciones atmosféricas hasta los cambios en la cobertura terrestre, las temperaturas de los océanos y más. Sin embargo, la escala y complejidad de esta información pueden ser abrumadoras. Para muchos, encontrar y extraer información requiere navegar por interfaces técnicas, comprender los formatos de datos y dominar las complejidades del análisis geoespacial: habilidades especializadas que muy pocos usuarios no técnicos poseen. La IA podría agilizar este proceso, reduciendo el tiempo necesario para obtener información de los datos de la Tierra a una cuestión de segundos. Este problema no es sólo una cuestión de conveniencia; tiene implicaciones en el mundo real. Por ejemplo, los científicos que necesitan analizar datos históricos sobre huracanes para mejorar los modelos predictivos, o los responsables de las políticas que quieren estudiar los patrones de deforestación para implementar regulaciones ambientales, pueden encontrarse con que no pueden acceder fácilmente a los datos que necesitan. Esta inaccesibilidad afecta a una amplia gama de sectores, incluida la agricultura, la planificación urbana y la respuesta a desastres, donde la información oportuna obtenida de los datos obtenidos desde el espacio podría marcar una diferencia significativa. Además, a medida que se lanzan nuevos satélites con nuevos instrumentos y se recopilan más datos, la NASA se enfrenta constantemente al desafío de crear nuevas herramientas para gestionar y dar sentido a este creciente repositorio. La agencia exploró tecnologías emergentes que no solo podrían agilizar el descubrimiento de datos, sino también ampliar la accesibilidad, permitiendo que más personas interactúen con los datos y descubran nuevos conocimientos. La solución: acceso a datos impulsado por IA a través de Microsoft Azure Para abordar estos desafíos, NASA IMPACT trabajó con Microsoft para desarrollar un copiloto de clientes impulsado por IA, llamado Earth Copilot, que podría simplificar el acceso a los datos y alentar a una gama más amplia de usuarios a interactuar con sus datos de Ciencias de la Tierra. Juntos, construyeron el modelo de IA de prueba de concepto que aprovecha la plataforma en la nube Azure de Microsoft y las capacidades avanzadas de IA para transformar la forma en que los usuarios pueden buscar, descubrir y analizar los datos geoespaciales de la NASA. La clave del Earth Copilot de la NASA reside en la integración de tecnologías basadas en la nube como Azure OpenAI Service, que proporciona acceso a potentes modelos de IA y capacidades de procesamiento del lenguaje natural que permiten a los desarrolladores integrar IA inteligente y conversacional en sus aplicaciones. Este enfoque permite a la NASA integrar la IA en su plataforma de análisis de datos existente: VEDA. Estas tecnologías en conjunto facilitan a los usuarios la búsqueda, el descubrimiento y el análisis de datos de ciencias de la Tierra. Al combinar estas tecnologías, Earth Copilot permite a los usuarios interactuar con el repositorio de datos de la NASA a través de consultas en lenguaje sencillo. En lugar de eso, pueden simplemente hacer preguntas como «¿Cuál fue el impacto del huracán Ian en la isla de Sanibel?» o «¿Cómo afectó la pandemia de COVID-19 a la calidad del aire en los EE. UU.?». La IA recuperará los conjuntos de datos relevantes, lo que hará que el proceso sea sencillo e intuitivo. “El sólido conjunto de servicios de Azure, que incluye aprendizaje automático, análisis de datos e infraestructura escalable en la nube, impulsa este prototipo de IA”, afirmó Juan Carlos López, ex ingeniero de la NASA y actual especialista de Azure en Microsoft. “Hemos diseñado el sistema para que gestione consultas complejas y grandes conjuntos de datos de manera eficiente, lo que garantiza que los usuarios puedan encontrar rápidamente la información que necesitan sin verse abrumados por complejidades técnicas. Nuestro objetivo era crear una solución escalable y sin inconvenientes que pudiera evolucionar a medida que crecieran los datos, las herramientas y las aplicaciones de la NASA”. Democratizar los datos para la ciencia abierta La colaboración entre NASA IMPACT y Microsoft ha dado como resultado una solución que democratiza el acceso a los datos espaciales, lo que permite que una gama más amplia de usuarios interactúe con los datos científicos de la NASA. Esto tiene importantes beneficios para la comunidad científica, ya que

Leer más »

¿Será posible descifrar un lenguaje alienígena? Descubrir cómo se comunica la IA puede ser clave

En la película de ciencia ficción Arrival (La llegada) , de 2016 , una lingüista se enfrenta a la difícil tarea de descifrar un idioma alienígena compuesto por frases palindrómicas que se leen igual al derecho y al revés y están escritas con símbolos circulares. A medida que descubre varias pistas, distintas naciones del mundo interpretan los mensajes de forma diferente y algunas suponen que transmiten una amenaza. Si la humanidad se encontrara hoy en una situación así, nuestra mejor apuesta podría ser recurrir a investigaciones que descubran cómo la inteligencia artificial desarrolla los lenguajes. Pero, ¿qué define exactamente a una lengua? La mayoría de nosotros utilizamos al menos una para comunicarnos con las personas que nos rodean, pero ¿cómo surgió? Los lingüistas han estado reflexionando sobre esta misma cuestión durante décadas , pero no hay una manera sencilla de averiguar cómo evolucionó el lenguaje . El lenguaje es efímero, no deja rastros examinables en los registros fósiles. A diferencia de los huesos, no podemos desenterrar lenguas antiguas para estudiar cómo se desarrollaron a lo largo del tiempo. Aunque no podamos estudiar la verdadera evolución del lenguaje humano, tal vez una simulación pueda proporcionarnos algunas pistas. Ahí es donde entra en juego la IA, un fascinante campo de investigación llamado comunicación emergente , que he dedicado los últimos tres años a estudiar. Para simular cómo puede evolucionar el lenguaje, les damos a los agentes de IA tareas sencillas que requieren comunicación, como un juego en el que un robot debe guiar a otro a una ubicación específica en una cuadrícula sin mostrarle un mapa. No les imponemos (casi) ninguna restricción sobre lo que pueden decir o cómo pueden hacerlo: simplemente les damos la tarea y les dejamos que la resuelvan como quieran. Dado que resolver estas tareas requiere que los agentes se comuniquen entre sí, podemos estudiar cómo evoluciona su comunicación con el tiempo para tener una idea de cómo podría evolucionar el lenguaje. Se han realizado experimentos similares con seres humanos . Imagínese que usted, un hablante de inglés, está emparejado con un hablante de otro idioma. Su tarea consiste en indicarle a su compañero que recoja un cubo verde de una variedad de objetos que hay sobre una mesa. Podrías intentar hacer un gesto con las manos para formar un cubo y señalar el césped que hay fuera de la ventana para indicar el color verde. Con el tiempo, desarrollarían juntos una especie de protolenguaje. Tal vez crearían gestos o símbolos específicos para “cubo” y “verde”. A través de interacciones repetidas, estas señales improvisadas se volverían más refinadas y consistentes, formando un sistema básico de comunicación. Esto funciona de manera similar con la IA: mediante ensayo y error, los algoritmos aprenden a comunicarse sobre los objetos que ven y sus interlocutores aprenden a comprenderlos. Pero ¿cómo sabemos de qué están hablando? Si solo desarrollan este lenguaje con su interlocutor artificial y no con nosotros, ¿cómo sabemos qué significa cada palabra? Después de todo, una palabra específica podría significar “verde”, “cubo” o peor aún, ambas cosas. Este desafío de interpretación es una parte clave de mi investigación. Descifrando el código La tarea de comprender el lenguaje de la IA puede parecer casi imposible al principio. Si intentara hablar en polaco (mi lengua materna) con un colaborador que solo habla inglés, no podríamos entendernos ni siquiera saber dónde empieza y termina cada palabra. El desafío con los lenguajes de IA es aún mayor, ya que podrían organizar la información de maneras completamente ajenas a los patrones lingüísticos humanos. Afortunadamente, los lingüistas han desarrollado herramientas sofisticadas que utilizan la teoría de la información para interpretar idiomas desconocidos. De la misma manera que los arqueólogos reconstruyen lenguas antiguas a partir de fragmentos, nosotros utilizamos patrones en las conversaciones de la IA para comprender su estructura lingüística. A veces encontramos similitudes sorprendentes con las lenguas humanas y otras veces descubrimos formas de comunicación completamente nuevas . Estas herramientas nos ayudan a echar un vistazo a la “ caja negra ” de la comunicación de IA y revelan cómo los agentes de IA desarrollan sus propias formas únicas de compartir información. Mi trabajo reciente se centra en utilizar lo que los agentes ven y dicen para interpretar su lenguaje. Imaginemos que tenemos una transcripción de una conversación en un idioma que no conocemos, junto con lo que cada hablante estaba mirando. Podemos hacer coincidir patrones en la transcripción con objetos en el campo de visión del participante, creando conexiones estadísticas entre palabras y objetos. Por ejemplo, tal vez la frase “yayo” coincida con un pájaro que pasa volando; podríamos suponer que “yayo” es la palabra que el hablante usa para “pájaro”. Mediante un análisis cuidadoso de estos patrones, podemos comenzar a decodificar el significado detrás de la comunicación. En el último artículo de mis colegas y mío, que aparecerá en las actas de la conferencia Neural Information Processing Systems (NeurIPS), demostramos que dichos métodos pueden usarse para realizar ingeniería inversa de al menos partes del lenguaje y la sintaxis de las IA, lo que nos da una idea de cómo podrían estructurar la comunicación. Extraterrestres y sistemas autónomos ¿Cómo se relaciona esto con los extraterrestres? Los métodos que estamos desarrollando para comprender los lenguajes de la IA podrían ayudarnos a descifrar cualquier comunicación futura con los extraterrestres. Si pudiéramos obtener algún texto escrito de un extraterrestre junto con algún contexto (como información visual relacionada con el texto), podríamos aplicar las mismas herramientas estadísticas para analizarlo. Los enfoques que estamos desarrollando hoy podrían ser herramientas útiles en el estudio futuro de las lenguas extraterrestres, conocido como xenolingüística. Pero no hace falta encontrar extraterrestres para sacar partido de esta investigación. Las aplicaciones son numerosas , desde mejorar modelos de lenguaje como ChatGPT o Claude hasta mejorar la comunicación entre vehículos autónomos o drones . Al decodificar los lenguajes emergentes, podemos hacer que la tecnología del futuro sea más fácil de entender. Ya sea que sepamos cómo coordinan sus movimientos los autos autónomos o cómo toman decisiones los sistemas de inteligencia artificial, no solo estamos creando sistemas inteligentes, sino que estamos aprendiendo a comprenderlos. Este artículo se publica nuevamente en The Conversation bajo una licencia Creative Commons. Lea el artículo original . Crédito

Leer más »

El futuro de la proyección climática

Un experto en modelización del clima global analiza cómo nuevos datos y nuevas técnicas están proporcionando una visión más clara que nunca de nuestro futuro atmosférico. Aditi Sheshadri, modeladora climática , dice que si bien la previsión meteorológica y la proyección climática se basan en una ciencia similar, son disciplinas muy diferentes.  La previsión consiste en mirar hacia la próxima semana, mientras que la proyección consiste en mirar hacia el próximo siglo. Sheshadri le cuenta al presentador Russ Altman cómo los nuevos datos y técnicas, como los globos aerostáticos de gran altitud de bajo costo y la inteligencia artificial, están cambiando el futuro de la proyección climática en este episodio del podcast The Future of Everything de Stanford Engineering .Código para insertar Escúchalo en tu plataforma de podcast favorita:       https://engineering.stanford.edu/media/oembed?url=https%3A//youtu.be/__lH62JCb6c&max_width=0&max_height=0&hash=bq3sB7A27wh692Om5K3s-MovzE3HkXPIM-Fik9fNtQc Relacionado : Aditi Sheshadri , profesora asistente de ciencias del sistema terrestre  Transcripción [00:00:00] Aditi Sheshadri: Constituyen una parte sustancial del presupuesto de momento de la corriente en chorro, que es un fenómeno a escala planetaria con el que todo el mundo está familiarizado. Si la corriente en chorro, por ejemplo, se desacelerara o acelerara, el tiempo que tardarías en llegar de Nueva York a Londres sería muy, muy diferente, ¿verdad? Así que el presupuesto de momento de la corriente en chorro está determinado en parte por estas ondas de gravedad. [00:00:28] Russ Altman: Este es El futuro de todo de Stanford Engineering y yo soy su anfitrión, Russ Altman. Si está disfrutando del podcast y si le ha ayudado de alguna manera, considere compartirlo con sus amigos, familiares, vecinos y colegas. Las recomendaciones personales son una excelente manera de difundir noticias sobre el programa. [00:00:43] Hoy, Aditi Sheshadri nos contará cómo la proyección climática le permite observar grandes áreas de la Tierra durante largos períodos de tiempo para comprender cómo es probable que evolucione el clima. Es el futuro de la proyección climática.  [00:00:58] Antes de comenzar, si estás disfrutando del programa, recuerda compartirlo con tu familia, amigos y colegas. Es una excelente manera de difundir las noticias sobre el programa y de asegurarnos de que todos estén al tanto de El futuro de todo. [00:01:17] Entonces, cuando pensamos en el clima, pensamos en el tiempo. Pensamos en qué temperatura hará hoy, si habrá viento, si lloverá. Pero en un panorama más amplio, tenemos que pensar en el clima a medida que se desarrolla, en todo el mundo. ¿Cuáles serán las temperaturas promedio? ¿Veremos icebergs derritiéndose o formándose? ¿Cuáles serán las corrientes en chorro que mueven aire en grandes volúmenes de una parte del mundo a otra parte del mundo? Eso cae en el área de la proyección climática. La proyección climática nos dice cosas sobre cuándo tendremos ciclones. ¿Tendremos noventa ciclones este año o cincuenta o ciento cincuenta? Nos habla del vórtice polar y dónde podría estar la corriente en chorro y lo que eso podría significar para las tormentas de invierno. Podría decirnos sobre las interacciones costeras del clima con la tierra y muchos otros fenómenos basados ​​en el clima.  [00:02:11] Bueno, Aditi Sheshadri es profesora de ciencias de los sistemas terrestres y miembro del Instituto Woods para el Medio Ambiente de la Universidad de Stanford. Es experta en proyecciones climáticas y utiliza tanto la física como los datos para modelar cómo cambia el clima a lo largo del tiempo y en grandes distancias. Nos va a contar cómo funciona esto en términos de modelar la física en cajas del clima, donde mide la temperatura, la presión y muchos parámetros. Tiene muchas cajas y observa cómo los elementos climáticos se mueven entre las diferentes cajas. También nos va a contar cómo obtuvo algunos datos gratuitos especiales de un experimento de Google que realmente no tenía nada que ver con la proyección climática y, sin embargo, fue una ganancia inesperada para ella.  [00:02:58] Aditi, eres experta en modelado climático, proyección climática, y eso es diferente de la previsión meteorológica. Por eso, quiero empezar preguntando cuál es la diferencia entre proyección climática y previsión meteorológica.  [00:03:10] Aditi Sheshadri: Correcto. Bueno, la proyección o predicción climática y la predicción numérica del tiempo (NWP, por sus siglas en inglés) son en realidad muy similares, ya que resuelven los mismos conjuntos de ecuaciones. Y las ecuaciones son básicamente ecuaciones de conservación. [00:03:26] Entonces, si tienes una pequeña caja de la atmósfera, la masa, el momento y la energía en esa pequeña caja deben conservarse y todo lo que entra debe salir o aumentar ese contenido en la caja. Sin embargo, hay algunas diferencias muy importantes en el caso de la proyección climática, eh, no hay datos que entren en ese modelo normalmente. El modelo simplemente funciona libremente, simplemente se integra hacia adelante en el tiempo, a menudo durante cientos de años.  [00:03:52] En el caso de la predicción meteorológica, el modelo utiliza la asimilación de datos, lo que significa que a medida que el modelo avanza en el tiempo, se le proporcionan todas las fuentes de datos posibles. Y, además, se espera que la predicción meteorológica sea algo precisa, al menos en un rango de diez a catorce días. Quiero decir, cuando dice que va a llover, hay un cincuenta por ciento de posibilidades de que llueva en tres días, tendemos a tomarnos ese número bastante en serio.  [00:04:17] Russ Altman: Sí.  [00:04:17] Aditi Sheshadri: Se espera que sea literalmente cierto hasta cierto punto. En el caso de la predicción climática, preguntar qué tan caluroso será el 1 de junio de 2027 es una pregunta sin sentido, porque básicamente está más allá de la ventana del caos.  [00:04:34] Russ Altman: Sí. [00:04:35] Aditi Sheshadri: Por lo tanto, la predicción climática tiene más que ver con tratar de entender las estadísticas en un clima cambiante. Entonces, una pregunta importante es cómo se verá junio en promedio dentro de cincuenta años. O cuál es el percentil noventa y cinco de lluvia que se espera que sea en promedio en junio, dentro de cincuenta años.  [00:04:55] Russ Altman: Está bien.  [00:04:56] Aditi Sheshadri: Son muy similares, pero tienen diferencias importantes. [00:04:58] Russ Altman:

Leer más »
Scroll al inicio