El Portal de las Tecnologías para la Innovación

Categoría: Papers de Investigación Científica

Un nuevo modelo matemático podría garantizar un uso más seguro de la IA y ayudar a proteger la privacidad

Los científicos han desarrollado un nuevo modelo matemático para ayudar a las personas a comprender los riesgos que plantea la IA y ayudar a los reguladores a proteger la privacidad.  Cada vez se utilizan más herramientas de inteligencia artificial para rastrear y vigilar a personas tanto en línea como en persona, lo que plantea desafíos para el anonimato y la privacidad. Por ejemplo, se están probando herramientas de inteligencia artificial para identificar automáticamente a las personas a partir de sus voces en la banca en línea, sus ojos en la entrega de ayuda humanitaria o sus rostros en la aplicación de la ley. Algunas técnicas de identificación de IA funcionan con gran precisión cuando se prueban en estudios de casos pequeños, pero luego identifican erróneamente a las personas en condiciones del mundo real. Los científicos informáticos del Imperial College de Londres, el Oxford Internet Institute y la UCLouvain han creado un método que proporciona un marco científico sólido para evaluar técnicas de identificación, especialmente cuando se trata de datos a gran escala. Según los investigadores, esto podría ayudar a las organizaciones a lograr un mejor equilibrio entre los beneficios de las tecnologías de IA y la necesidad de proteger la información personal de las personas, haciendo que las interacciones diarias con la tecnología sean más seguras. Su método de prueba permite identificar posibles debilidades y áreas de mejora en las herramientas de IA antes de que se implementen a gran escala.  Los resultados se publican hoy en Nature Communications . El profesor asociado Yves-Alexandre de Montjoye, coautor del estudio del Data Science Institute del Imperial College de Londres, dijo: «Nuestra nueva ley de escala proporciona, por primera vez, un modelo matemático basado en principios para evaluar cómo funcionarán las técnicas de identificación a escala. Comprender la escalabilidad de la identificación es esencial para evaluar los riesgos que plantean estas técnicas de reidentificación, incluso para garantizar el cumplimiento de las legislaciones modernas de protección de datos en todo el mundo».  El método se basa en el campo de las estadísticas bayesianas para aprender cómo son identificables los individuos a pequeña escala y extrapolar la precisión de la identificación a poblaciones más grandes hasta 10 veces mejor que las heurísticas y reglas generales anteriores. Esto le da al método un poder único para evaluar cómo funcionarán las diferentes técnicas de identificación de datos a escala, en diferentes aplicaciones y entornos de comportamiento. Esto puede ayudar a explicar por qué algunas técnicas de identificación de IA funcionan con gran precisión cuando se prueban en estudios de casos pequeños, pero luego identifican erróneamente a las personas en condiciones del mundo real. El autor principal, el Dr. Luc Rocher, investigador principal del Oxford Internet Institute, parte de la Universidad de Oxford, dijo: «Vemos nuestro método como un nuevo enfoque para ayudar a evaluar el riesgo de reidentificación en la divulgación de datos, pero también para evaluar las técnicas de identificación modernas en entornos críticos y de alto riesgo. En lugares como hospitales, entrega de ayuda humanitaria o control fronterizo, lo que está en juego es increíblemente alto y la necesidad de una identificación precisa y confiable es primordial.  “Creemos que este trabajo constituye un paso crucial hacia el desarrollo de métodos basados ​​en principios para evaluar los riesgos que plantean las técnicas de inteligencia artificial cada vez más avanzadas y la naturaleza de la identificabilidad de los rastros humanos en línea. Esperamos que este trabajo sea de gran ayuda para investigadores, responsables de protección de datos, comités de ética y otros profesionales que busquen un equilibrio entre compartir datos para la investigación y proteger la privacidad de los pacientes, los participantes y los ciudadanos”. Imperial College London News. Traducido al español

Leer más »

Dando a las células artificiales un esqueleto que parece real

Los investigadores de la TU/e ​​han desarrollado un método para fabricar un citoesqueleto para células artificiales. La nueva investigación se ha publicado en Nature Chemistry. Al igual que el cuerpo tiene un esqueleto, cada célula del cuerpo tiene un esqueleto, un citoesqueleto para ser más precisos. Este proporciona a las células resistencia mecánica, además de ayudar a la división celular. Para comprender cómo funcionan las células reales, por ejemplo para la investigación de fármacos y enfermedades, los investigadores crean células artificiales en el laboratorio. Sin embargo, muchas células artificiales hasta la fecha no se pueden utilizar para estudiar cómo responden las células a las fuerzas, ya que no tienen citoesqueleto. Los investigadores de la TU/e ​​han diseñado una red basada en polímeros para células artificiales que imita un citoesqueleto real, lo que permite estudiar con mayor precisión en células artificiales cómo responden las células a las fuerzas. En la actualidad, se están creando células artificiales para comprender cómo funcionan las células vivas. Puede que al principio parezca desconcertante, pero el enfoque tiene su lógica. “Esto no sólo es interesante desde un punto de vista fundamental, sino que también puede ser muy útil cuando se trata de una detección más eficaz de fármacos, el diseño de mejores tecnologías de administración de fármacos y para la regeneración de tejidos”, dice Jan van Hest , profesor titular del Departamento de Ingeniería Química y Química y del Departamento de Ingeniería Biomédica. “Las células artificiales se pueden utilizar para estudiar procesos biológicos en las células sin necesidad de células vivas, y también se puede hacer de forma controlada. Esto resulta beneficioso si se quiere estudiar qué tipo de moléculas afectan a determinados procesos en las células”. Hasta ahora, los científicos se han centrado principalmente en incluir las funciones clave de las células en células artificiales. “En otras palabras, los investigadores han creado células artificiales que pueden comunicarse entre sí y con el entorno que las rodea, además de moverse como células reales”, señala Van Hest. “Pero, hasta la fecha, la mayoría de las células artificiales no se pueden utilizar para estudiar cómo las fuerzas afectan a las células porque no tienen citoesqueleto”. Jan van Hest. Foto de : Vincent van den Hoogen ¿Por qué lo artificial y no lo real? El cuerpo humano contiene un esqueleto grande, que está formado por unos 206 huesos. Este desempeña una serie de funciones en el organismo, que van desde el soporte estructural hasta el almacenamiento de minerales clave. Sin embargo, a diferencia del esqueleto humano, el citoesqueleto de las células no contiene huesos, sino que está formado por microtúbulos (largos tubos de polímero de la proteína tubulina) y microfilamentos hechos de la proteína actina. “Los componentes básicos pueden ser diferentes, pero el citoesqueleto hace muchas de las cosas que hace el esqueleto humano, sólo que en una escala mucho más pequeña”, dice Van Hest. Existen numerosos estudios sobre las propiedades mecánicas y la respuesta del esqueleto humano, pero no puede decirse lo mismo de los estudios sobre los citoesqueletos en células artificiales. “Las células artificiales se estudian para comprender mejor el funcionamiento biológico de las células vivas. Pero si no hay citoesqueleto en las células artificiales, es más difícil establecer comparaciones concretas sobre cómo responden las células reales a las fuerzas”, añade Van Hest. Lo artificial se vuelve más real Así, en colaboración con colegas del Instituto Max Planck de Erlangen (Alemania), Van Hest y su equipo de la TU/e ​​han incluido un citoesqueleto en una célula artificial que le proporciona propiedades mecánicas similares a las de las células de mamíferos vivos. El equipo fabrica el citoesqueleto artificial utilizando un polímero basado en polidiacetileno (PDA). “El PDA es un material excelente para fabricar un citoesqueleto artificial. Capta los aspectos clave de un citoesqueleto natural, se agrupa para formar estructuras fibrosas que tienen aproximadamente el mismo tamaño que los filamentos de un citoesqueleto natural y puede deformarse cuando se somete a fuerzas externas”, afirma Van Hest. (Izquierda) Configuración para mover células artificiales a través del canal para estudiar su deformación. (Derecha) A: Deformación de una célula con citoesqueleto. B: Deformación de una célula sin citoesqueleto. Pruebas mecánicas El investigador de doctorado Sebastian Novosedlik (autor principal del artículo de Nature Chemistry) realizó la mayor parte del trabajo y diseñó el citoesqueleto. Sin embargo, para probar las propiedades mecánicas del citoesqueleto artificial de manera confiable, Van Hest y el equipo de la TU/e ​​buscaron ayuda en otros lugares. “Jochen Guck y Felix Reichel en Alemania proporcionaron una manera de probar las propiedades mecánicas de células artificiales individuales en tiempo real”, dice Van Hest. Los investigadores utilizaron una técnica conocida como citometría de deformabilidad en tiempo real (RT-DC) para estudiar cómo las células artificiales con y sin citoesqueleto se deformaban a medida que eran empujadas por un canal estrecho. “Cuando incluimos en las células un citoesqueleto elaborado a partir de PDA, observamos que la deformación de las células disminuyó. En otras palabras, se volvieron más rígidas. Además, se demostró que su rigidez a la compresión, medida mediante el módulo de Young, era similar a la de ciertas células humanas”, afirma Van Hest. En el futuro, las células artificiales con citoesqueletos serán muy importantes, como explica Van Hest. “La inclusión de un citoesqueleto en células artificiales nos permite tener en cuenta tanto las señales químicas como las mecánicas cuando las células artificiales interactúan con las vivas en estudios futuros, como aquellos en los que se desea modular las células inmunitarias”. Henk Jansen. Foto de : Jan van Hest Estudio conmovedor El siguiente paso para Van Hest y los investigadores es explorar las propiedades funcionales y mecánicas combinadas de su sistema cuando las células interactúan con otras células, lo que podría ser significativo para nuevas investigaciones que utilicen células artificiales en casos en los que las células vivas sean parte integral de ellas. En lo personal, esta investigación también tiene un gran impacto en términos de colaboración y conexión personal con Van Hest. “Este proyecto fue una colaboración con la empresa SyMO-Chem, y especialmente con

Leer más »

El telescopio espacial Gaia completa su escaneo de la Vía Láctea

La misión espacial de mapeo de la Vía Láctea Gaia de la Agencia Espacial Europea, en la que participan investigadores de la UCL, ha completado su fase de escaneo del cielo, acumulando más de tres billones de observaciones de dos mil millones de estrellas y otros objetos durante una década para revolucionar nuestra visión de la galaxia. 17 de enero de 2025 La misión espacial de mapeo de la Vía Láctea Gaia de la Agencia Espacial Europea, en la que participan investigadores de la UCL, ha completado su fase de escaneo del cielo, acumulando más de tres billones de observaciones de dos mil millones de estrellas y otros objetos durante una década para revolucionar nuestra visión de la galaxia. El tanque de combustible de Gaia, lanzado el 19 de diciembre de 2013, se está agotando; utiliza alrededor de una docena de gramos de gas frío por día para seguir girando con precisión milimétrica. Pero esto está lejos de ser el final de la misión. Se han programado pruebas tecnológicas para las próximas semanas antes de que Gaia sea trasladada a su órbita de «retiro», y se han programado dos publicaciones masivas de datos para alrededor de 2026 y a fines de esta década, respectivamente. La directora científica de la ESA, la profesora Carole Mundell, afirmó: «Hoy se conmemora el final de las observaciones científicas y celebramos esta increíble misión que ha superado todas nuestras expectativas y ha durado casi el doble de su vida útil prevista originalmente. “El tesoro de datos recopilados por Gaia nos ha proporcionado información única sobre el origen y la evolución de nuestra galaxia, la Vía Láctea, y también ha transformado la astrofísica y la ciencia del Sistema Solar de maneras que aún no hemos podido apreciar en su totalidad. Gaia se basó en la excelencia europea única en astrometría y dejará un legado duradero para las generaciones futuras”. El científico del proyecto Gaia, Dr. Johannes Sahlmann, afirmó: “ Después de 11 años en el espacio y de sobrevivir a impactos de micrometeoritos y tormentas solares en el camino, Gaia ha terminado de recopilar datos científicos. Ahora todas las miradas se centran en la preparación de las próximas publicaciones de datos. “Estoy encantado con el desempeño de esta increíble misión y entusiasmado por los descubrimientos que nos esperan”. Los investigadores del Laboratorio de Ciencias Espaciales Mullard (MSSL) de la UCL desempeñaron un papel fundamental en el desarrollo del Espectrómetro de Velocidad Radial (RVS) de Gaia, que revela la velocidad a la que millones de estrellas se mueven hacia o lejos de nosotros (su velocidad radial). El profesor Steven Baker (Mullard Space Science Laboratory en UCL), actual investigador principal del Reino Unido para el Gaia RVS y líder del equipo MSSL, dijo: «Aunque los instrumentos de Gaia han dejado de recopilar nuevos datos, nuestro trabajo está lejos de terminar. Gaia Data Release 4 (DR4) en 2026 será, con diferencia, el mayor catálogo de datos astrofísicos jamás publicado y el DR5, programado para 2030, será más del doble de grande. “Nos centramos en proporcionar las velocidades radiales correspondientes a todo el estudio de 11 años, con mayor precisión y en magnitudes incluso más débiles que nunca antes”. Cada detector CCD de Gaia tiene una electrónica dedicada a convertir los niveles de señal débiles en imágenes digitales. El equipo de UCL-MSSL desarrolló un prototipo de electrónica y luego probó y calibró cada uno de los 106 detectores electrónicos utilizados para capturar todos los datos de Gaia. Los investigadores de UCL también han tenido un papel importante en el procesamiento de datos espectroscópicos. El equipo del Reino Unido que participa en la misión Gaia cuenta con el apoyo de la Agencia Espacial del Reino Unido y del Consejo de Instalaciones Científicas y Tecnológicas. El profesor Baker añadió: «No es una exageración decir que Gaia ha revolucionado la ciencia de la cosmología. La mina de oro de los datos de Gaia nos ha proporcionado una nueva comprensión de la evolución de nuestra galaxia, la Vía Láctea, y nuevos y fascinantes detalles de su movimiento y estructura actuales.  “Más cerca de casa, Gaia ha proporcionado órbitas de precisión para más de 150.000 asteroides dentro de nuestro propio Sistema Solar. Con cada nuevo lanzamiento del catálogo se harán más descubrimientos apasionantes; lo mejor está por venir”. Gaia ofrece el mejor mapa de la Vía LácteaGaia ha estado cartografiando las posiciones, distancias, movimientos, cambios de brillo, composición y muchas otras características de las estrellas monitoreándolas con sus tres instrumentos muchas veces a lo largo de la misión. Esto ha permitido a Gaia cumplir con su objetivo principal de construir el mapa más grande y preciso de la Vía Láctea, mostrándonos nuestra galaxia natal como ninguna otra misión lo ha hecho antes. De este modo, ahora también tenemos la mejor reconstrucción de cómo podría verse nuestra galaxia desde fuera. Esta nueva impresión artística de la Vía Láctea incorpora datos de Gaia extraídos de una multitud de artículos publicados durante la última década. Stefan Payne-Wardenaar, visualizador científico del Instituto Max Planck de Astronomía, Alemania, dijo: «Contiene cambios importantes con respecto a los modelos anteriores, porque Gaia ha cambiado nuestra impresión de la Vía Láctea. Incluso se han revisado las ideas básicas, como la rotación de la barra central de nuestra galaxia, la deformación del disco, la estructura detallada de los brazos espirales y el polvo interestelar cerca del Sol. “Aun así, las partes distantes de la Vía Láctea siguen siendo conjeturas fundamentadas basadas en datos incompletos. Con la publicación de más datos de Gaia, nuestra visión de la Vía Láctea será aún más precisa”.  La máquina de descubrimiento de la décadaLas mediciones repetidas de Gaia de las distancias, movimientos y características estelares son clave para realizar «arqueología galáctica» en nuestra Vía Láctea, revelando eslabones perdidos en la compleja historia de nuestra galaxia para ayudarnos a aprender más sobre nuestros orígenes. Desde la detección de «fantasmas» de otras galaxias y múltiples corrientes de estrellas antiguas que se fusionaron con la Vía Láctea en su historia temprana, hasta el hallazgo

Leer más »

GenAI marca el comienzo de una nueva era en la investigación de fármacos

El uso de inteligencia artificial generativa en el diseño de proteínas podría revolucionar el desarrollo de nuevos fármacos. La EPFL aspira a formar un consorcio para explorar más a fondo esta vía. Todos los seres vivos están compuestos de proteínas, que desempeñan un papel fundamental en la estructura, la nutrición y la salud de las células, así como en las interacciones entre los fármacos y el organismo. Los recientes avances en el diseño de proteínas están llamados a marcar el comienzo de una nueva era en la investigación de fármacos. A la vanguardia de esta revolución se encuentra la inteligencia artificial generativa (GenAI), que es capaz de diseñar tipos de proteínas completamente nuevos. Los nuevos métodos de obtención de imágenes, como la cristalografía de rayos X y la microscopía electrónica criogénica, también desempeñan un papel clave, ya que permiten a los científicos observar la composición de las proteínas del mundo real con una precisión sin precedentes. La combinación de estas nuevas tecnologías podría allanar el camino hacia nuevos procesos que permitan a los investigadores desarrollar, entre otras cosas, medicamentos biológicos innovadores, a menudo llamados productos biológicos. Una vista de cerca de las biomoléculas Nuestra comprensión actual de cómo interactúan las proteínas y las células se basa en datos empíricos recopilados a lo largo de años de investigación biomédica. Por poner un solo ejemplo, conocemos perfectamente el papel que desempeña la insulina en el metabolismo de la glucosa, pero otras innumerables interacciones entre proteínas y células siguen siendo un misterio, al igual que las razones y los mecanismos que se esconden detrás de los fallos en las proteínas que provocan enfermedades. La aparición de nuevos métodos y tecnologías está ampliando el conjunto de conocimientos científicos a un ritmo exponencial. La microscopía electrónica criogénica, un método practicado y desarrollado en el Centro de Imágenes Dubochet de la EPFL-UNIL, permitió a los investigadores observar, in vitro , cómo la proteína de la espícula de la variante ómicron del SARS-CoV-2 interactuaba con los receptores de la superficie de las células humanas, lo que ofrece información sobre la rápida propagación del virus en el organismo y su inmunidad a las vacunas desarrolladas para variantes anteriores. Espiga Conocida por ser la punta de lanza que permite al virus SARS-CoV-2 penetrar en las células humanas, la proteína Spike saltó a la fama durante la pandemia. La proteína Spike se une a las proteínas ACE2 en membranas celulares específicas (incluidas las de nuestro sistema respiratorio), abriendo la puerta para que entre el virus. Consiste en tres cadenas idénticas que sobresalen de la envoltura viral. La proteína Spike es una glicoproteína, es decir, está recubierta de azúcares que son de origen humano. Si la capa de azúcar es lo suficientemente gruesa, actúa como una «capa invisible», haciendo que el virus sea indetectable para nuestro sistema inmunológico.La proteína Spike es un objetivo principal para nuestro sistema inmunológico cuando lucha contra una infección, y las vacunas son un poderoso aliado en esta lucha. Los científicos utilizaron una variedad de métodos para desarrollar vacunas contra el SARS-CoV-2. Uno implicó sintetizar y luego purificar la proteína Spike del virus, que luego se depositó en nanopartículas y se administró mediante inyecciones subcutáneas. La vacuna incita al sistema inmunológico del receptor a producir anticuerpos, ya que la proteína Spike es reconocida como una sustancia extraña. En el caso de las vacunas de ARNm, no se trata de una réplica de la proteína de la espícula que se administra, sino más bien del “modelo” de la proteína en forma de ARNm. Esto permite que las propias células del receptor sinteticen la proteína de la espícula, contra la cual el sistema inmunitario desarrolla anticuerpos específicos. Aplicando el aprendizaje profundo a la vida Otro campo en el que se están produciendo avances igualmente rápidos es el de la aplicación del aprendizaje automático a las ciencias de la vida. Los ganadores del Premio Nobel de Química de 2024 fueron David Baker, un pionero estadounidense de la biología computacional, junto con Demis Hassabis (Doctor Honoris Causa de la EPFL) y John M. Jumper, quienes juntos desarrollaron AlphaFold, un modelo de referencia de IA que ha ganado múltiples premios para predecir la estructura de las moléculas. Diseño de nuevas biomoléculas La EPFL también es muy activa en el campo del diseño de proteínas. Desde hace más de cinco años, el Laboratorio de Diseño de Proteínas e Inmunoingeniería de la Escuela, dirigido por Bruno Correia, utiliza el aprendizaje automático para predecir el potencial de interacción entre las proteínas y sus receptores. «El uso del aprendizaje profundo en la ingeniería biológica abre nuevas y apasionantes oportunidades», afirma Correia. Si bien este trabajo pionero está ampliando nuestra comprensión de cómo funcionan los organismos vivos, también marca el punto de partida de una revolución naciente en la investigación de fármacos. Porque cuando los programas GenAI como ChatGPT se entrenan con datos de proteínas e interacciones moleculares generados por investigadores y modelos como AlphaFold, los programas pueden diseñar y modelar tipos de moléculas completamente nuevos, en innumerables formas, y simular sus interacciones con las células. Y los programas pueden realizar miles de millones de cálculos de este tipo por segundo hasta que encuentren moléculas con relevancia teórica para el desarrollo de fármacos. «Este nuevo enfoque será nada menos que un cambio de paradigma para todo el campo de la biotecnología», agrega Correia. Este nuevo enfoque será nada menos que un cambio de paradigma para todo el campo de la biotecnología.Bruno Correia De la planificación a la realidad Sin embargo, existen diversas formas de producir proteínas existentes o desconocidas a demanda. Es lo que hacen Florence Pojer y su grupo de investigación en el Centro de Producción y Estructura de Proteínas (PTPSP) de la EPFL, donde se agitan botellas que contienen líquidos rojizos en vitrinas durante horas. “Por ejemplo, estas botellas contienen células de riñón embrionario humano (HEK), que han sido inmortalizadas y cultivadas durante décadas”, dice Pojer. “Las utilizamos para producir proteínas como anticuerpos, después de transfectar primero las células con plásmidos que contienen la secuencia deseada”.

Leer más »

Nuevo centro de investigación para desarrollar tecnologías innovadoras para plantas de energía solar

UC Berkeley y Nextracker Inc. se asocian para lanzar el Centro CAL-NEXT para la Investigación de Energía Solar UC Berkeley Engineering y Nextracker Inc. se han asociado para lanzar el Centro CAL-NEXT para la Investigación de la Energía Solar, con el objetivo de desarrollar tecnologías de plantas de energía solar sostenibles de última generación para satisfacer la creciente demanda mundial de energía. Esta colaboración, financiada con una donación de 6,5 millones de dólares de Nextracker, respaldará un programa de investigación de vanguardia y un campo de pruebas de última generación planificado. El nuevo centro tiene como objetivo acelerar la innovación en tecnologías de energía solar aprovechando las instalaciones de investigación de clase mundial y la experiencia académica de la UC Berkeley. Los esfuerzos de investigación se centrarán en tecnologías digitales, fabricación avanzada, tecnología de seguimiento solar, energía solar fotovoltaica y gestión de energía a nivel de sistema. El centro también trabajará con el personal docente para integrar conceptos de tecnología solar de vanguardia en los programas de ingeniería y ciencias ambientales de UC Berkeley, brindando a los estudiantes experiencias de aprendizaje prácticas y acceso a herramientas líderes en la industria y aplicaciones del mundo real. “Al fomentar la colaboración entre la academia y la industria, pretendemos impulsar avances significativos en las tecnologías de energía solar”, afirmó Tarek Zohdi, decano asociado de investigación de Berkeley Engineering y director del centro. “Nextracker comparte el espíritu de educación pública, descubrimiento e innovación de UC Berkeley, y este centro brindará a nuestros profesores y estudiantes una experiencia de investigación de primer nivel”. Además, los estudiantes de UC Berkeley podrán acceder a los programas de pasantías y tutorías de Nextracker, así como a nuevas oportunidades de empleo en la industria, impulsando la línea de fuerza laboral con graduados capacitados y preparados para la industria. “Este centro no sólo acelerará la innovación, sino que también desarrollará la próxima generación de ingenieros e investigadores a la vanguardia de la revolución global de la energía solar”, afirmó Francesco Borrelli, profesor de ingeniería mecánica y codirector del Centro CAL-NEXT. El Centro CAL-NEXT para Investigación en Energía Solar se hizo realidad gracias a la visión compartida de Zohdi y Borrelli, y Alex Au, cofundador y director de tecnología de Nextracker. “Estamos encantados de asociarnos con UC Berkeley para inaugurar el Centro CAL-NEXT de Investigación de Energía Solar”, afirmó Au, quien supervisará las operaciones e iniciativas del centro. “A través de nuestra asociación con UC Berkeley Engineering, estamos creando una plataforma poderosa para seguir ampliando los límites de la tecnología solar, garantizando que la generación de energía limpia y sostenible esté disponible para todos”. Universidad de Berkeley News. Traducido al español

Leer más »

Sintonizando con las posibilidades de la tecnología de antena impresa en 3D

Descubra las posibilidades de la tecnología de antenas impresas en 3D Hoy en día, casi todos los dispositivos electrónicos personales dependen de antenas para enviar y recibir datos. De hecho, también está aumentando la demanda de antenas ligeras para nuevas aplicaciones, incluidas las últimas redes 5G/6G, dispositivos portátiles avanzados y aplicaciones aeroespaciales como los CubeSats. Sin embargo, las técnicas de fabricación estándar han limitado la complejidad estructural y el uso de múltiples materiales que permitirían obtener aún más funciones y capacidades de las antenas. Ahora, un equipo dirigido por Xiaoyu (Rayne) Zheng, profesora asociada en el Departamento de Ciencia e Ingeniería de Materiales de la UC Berkeley y codirectora de la facultad del Centro de Sensores y Actuadores de Berkeley (BSAC) y el Instituto Jacobs para la Innovación en Diseño, ha desarrollado una nueva plataforma de fabricación aditiva/impresión 3D que ofrece «una flexibilidad incomparable en el diseño de antenas y la capacidad de imprimir rápidamente estructuras de antena complejas». Como se informó en el último número de Nature Communications, la nueva plataforma, denominada impresión 3D multimaterial con programación de carga (CPD), es un sistema universal para la producción rápida de casi todos los sistemas de antenas 3D. Puede crear patrones de metales altamente conductores con una amplia gama de materiales dieléctricos en un diseño 3D. Zheng enfatizó que la plataforma no es una impresora 3D costosa para metales que implicaría polvos metálicos costosos y láseres de alta energía. “Esta tecnología se puede aplicar a impresoras basadas en luz que se puedan usar en computadoras de escritorio”, dijo. El método CPD combina una impresora 3D de luz digital de escritorio y una tecnología basada en catalizadores que puede modelar diferentes polímeros en diferentes lugares donde atraerán el recubrimiento metálico. Su tecnología de recubrimiento selectivo o autocatalítico permite que los polímeros absorban selectivamente iones metálicos en lugares prescritos que están definidos por el resultado deseado del diseño de la antena. Zheng afirmó que el CPD puede integrarse ampliamente con una variedad de métodos de impresión 3D de múltiples materiales. “Permite prácticamente cualquier estructura 3D compleja, incluidas las redes complejas, y ha demostrado la deposición de cobre con una conductividad casi prístina, así como materiales magnéticos, semiconductores, nanomateriales y combinaciones de estos”. Un conjunto de transmisores de fase de gradiente fabricado con CPD para generar radiación altamente direccional. La antena presenta tres capas de celdas unitarias con diseño de anillo en S con inclinación gradual. (Imagen cortesía de los investigadores) Zheng ha estado trabajando en la plataforma CPD desde 2019, cuando su grupo ideó el concepto por primera vez. En 2020, su equipo publicó su primer artículo en Nature Electronics sobre esta tecnología, seguido de un artículo en Science en 2022 que describía su uso para fabricar microrobots. Este último artículo es específico para la aplicación de antenas. El CPD, dijo Zheng, es “muy adecuado para antenas, porque casi todas las antenas necesitan dos componentes: uno es la fase metálica, el conductor, y el otro es la fase dieléctrica, que no es conductora, y [hasta ahora] no ha habido ninguna tecnología capaz de modelar o sintetizar directamente los materiales conductores y dieléctricos juntos”. Zheng explicó que la primera aplicación que consideraron fue en antenas. Después de discutir la tecnología con colegas que se especializan en este área, se dieron cuenta de que esta técnica podría revolucionar la forma en que se imprimen las antenas y abrir muchas nuevas posibilidades de diseño. La impresión tanto del conductor (metal) como de los materiales dieléctricos es especialmente importante para las antenas que se van a utilizar en entornos extremos. Por ejemplo, Zheng dijo que “no se puede utilizar un polímero normal en el espacio. Se necesita un polímero de alta temperatura como el Kapton, que es un buen material en la industria aeroespacial [estable tanto a temperaturas muy altas como muy bajas]. Ahora se puede tener Kapton y un patrón de trazas de metal entrelazadas en 3D al mismo tiempo”. El equipo también ha demostrado que mediante diseños 3D adecuados, estas antenas, sin tener que asentarse sobre un sustrato voluminoso, consiguen un importante ahorro de peso en comparación con las antenas actuales. El coautor Yahya Rahmat-Samii, profesor de ingeniería eléctrica e informática en la UCLA, cree que la plataforma CPD podría ampliar significativamente las posibilidades de nuevas tecnologías de antena y permitir diseños basados ​​en datos, lo que permitiría diseños de antenas listos para usar para diversas aplicaciones. «Probablemente existan numerosas estructuras de antena diferentes, según la aplicación que tenga en mente», dijo. Una antena eléctricamente pequeña implantable y plegada en 3D que presenta espirales de Arquímedes y curvas de Hilbert interpenetradas. (Imagen cortesía de los investigadores) Zheng y Rahmat-Samii quieren explorar ahora toda la complejidad del diseño de antenas que se puede lograr con su nueva tecnología de antenas impresas en 3D. El control de la complejidad de una antena les da el control sobre la capacidad de dar forma a las ondas electromagnéticas, de forma muy similar a como un pintor controla la aplicación de pintura con un pincel. Con el objetivo de promover las aplicaciones de esta tecnología, el equipo de la UC Berkeley ha formado una empresa emergente centrada en sensores médicos flexibles que se adaptarían, por ejemplo, a la forma de una mano. “Podemos lograr una antena sintonizable”, dijo Zheng. “Y ahora la pregunta es, ¿dónde puede ayudarnos mejor esa tecnología? Universidad de Berkeley News. Traducido al español

Leer más »

La IA descubre pozos de petróleo y gas potencialmente peligrosos y olvidados

Estos pozos no aparecen en los registros oficiales y no tienen un propietario conocido, por lo que no existe una entidad legal responsable de sellar estos “huérfanos”. Con alrededor de 800.000 pozos de petróleo y gas olvidados repartidos por todo Estados Unidos, investigadores del Laboratorio Nacional Lawrence Berkeley (LBNL) han desarrollado un modelo de IA capaz de localizar con precisión, a escala, pozos que pueden estar filtrando sustancias químicas tóxicas y gases de efecto invernadero, como el metano, al medio ambiente. El modelo está diseñado para identificar muchos de los aproximadamente 3,7 millones de pozos de petróleo y gas excavados en Estados Unidos desde mediados del siglo XIX.  Pero su propósito principal es ayudar a encontrar un subconjunto particular de pozos: pozos huérfanos no documentados (UOW). Estos pozos no aparecen en los registros oficiales y no tienen un propietario conocido, por lo que no existe una entidad legal responsable de sellar estos “huérfanos”. Además, la ubicación de estos pozos, especialmente los perforados hace más de un siglo (cuando las bocas de pozo solían tener un diámetro de quince centímetros), rara vez aparece en las bases de datos oficiales que identifican pozos de petróleo y gas. Para empeorar las cosas, estos pozos con fugas no son anómalos.   Se estima que, en los aproximadamente tres millones de millas cuadradas del territorio estadounidense, hay entre 300.000 y 800.000 UOW.  La única forma de evitar que los pozos con posibles fugas dañen el medio ambiente es sellándolos, lo que generalmente se hace con hormigón.  Pero antes de poder sellar un pozo, hay que encontrarlo.  Para identificar con precisión las UOW a escala, el equipo del LBNL entrenó un modelo de lenguaje de visión, U-Net, en mapas digitalizados de los EE. UU. creados entre 1947 y 1992.  Una característica clave de estos mapas denominados “cuadrángulos” (que el Servicio Geológico de Estados Unidos ha agregado y digitalizado) es su uniformidad y georreferenciación. Los símbolos y colores que utilizan para referirse a elementos como pozos, plataformas petrolíferas y bosques son prácticamente los mismos, y cada símbolo corresponde con precisión a ubicaciones longitudinales y latitudinales específicas. “Una característica excelente de estos mapas es que son extremadamente consistentes en toda la superficie de los Estados Unidos”, dijo Fabio Ciulla, uno de los investigadores de Lawrence Berkeley y autor principal de un artículo que describe su trabajo con IA y UOW. “Elegimos utilizar este conjunto particular de mapas topográficos históricos porque podíamos investigar UOW a escala continental, utilizando un enfoque que nadie había utilizado con eficacia antes”.  Utilizando la supercomputadora del Centro Nacional de Computación Científica de Investigación Energética ( NERSC ) de la Universidad de California en Berkeley, que funciona con más de 6000 GPU NVIDIA A100 Tensor Core , los investigadores entrenaron su modelo de búsqueda de bocas de pozo en mapas de dos condados de California (Los Ángeles y Kern) que a principios del siglo XX eran los principales condados productores de petróleo y gas.  Antes de comenzar a ajustar su modelo, los investigadores anotaron manualmente 79 mapas digitalizados y georreferenciados de los condados de Los Ángeles y Kern para garantizar que los mapas identificaran con precisión cada símbolo de boca de pozo. Con esos mapas actualizados, el equipo afinó su modelo en todos los mapas georreferenciados de los dos condados de California.  Para identificar las UOW, los investigadores cruzaron las bocas de pozo identificadas por su modelo en los mapas cuadrangulares históricos con las ubicaciones en una base de datos que el estado de California mantiene de bocas de pozo conocidas en los condados de Los Ángeles y Kern. Cuando el modelo identificó una nueva boca de pozo que se encontraba a más de 100 metros de una boca de pozo conocida , los investigadores la trataron como una posible boca de pozo no contaminada. En los cuatro condados de California y Oklahoma, los investigadores encontraron 1.301 posibles bocas de pozo no contaminadas. Utilizando imágenes satelitales de Google Earth y visitas en persona a algunos de los sitios potenciales de UOW, el equipo de investigación trabajó para verificar la precisión de su proceso de búsqueda de bocas de pozo. Descubrieron que la precisión del modelo para identificar UOW variaba entre el 31% y el 98%.  En las zonas más rurales, el modelo fue muy preciso a la hora de identificar las UOW. Sin embargo, fue menos preciso en las zonas urbanas, donde las UOW potenciales podrían estar pavimentadas (lo que dificulta su verificación) o donde el modelo cometió un error al confundir los símbolos con rotondas o callejones sin salida con bocas de pozo.  Es importante destacar que el modelo demostró que era transferible.  Después de realizar sus pruebas de referencia cruzada en los condados de Los Ángeles y Kern, el equipo utilizó el mismo modelo perfeccionado para buscar UOW en los condados de Osage y Oklahoma de Oklahoma. Al igual que los condados de Kern y Los Ángeles, a fines del siglo pasado los condados de Osage y Oklahoma eran dos de los condados con mayor producción de petróleo y gas del país.  Aunque nunca “había visto” los mapas de Oklahoma, el modelo identificó UOW potenciales con un nivel de precisión similar al de los condados de Kern y Los Ángeles.  “Cuando empezamos a pensar en nuestro estudio, queríamos encontrar un algoritmo que pudiera escalarse a muchas regiones de los EE. UU. sin tener que volver a entrenar el modelo para muchas ubicaciones diferentes”, dijo Charuleka Varadharajan, científica del personal de LBNL y autora principal del estudio de UOW. “ Vimos que con el modelo entrenado solo en los mapas de California, aún alcanzamos la misma precisión, si no mayor, en la identificación de posibles UOW en Oklahoma”. El estudio es parte de un programa del Departamento de Energía diseñado para ayudar a los estados a identificar UOW.  En el futuro, Ciulla y Varadharajan planean seguir perfeccionando su modelo para expandirlo a otras ubicaciones y trabajar con estados interesados ​​en utilizar su trabajo para identificar UOW. NVIDIA Blog. E. W. Traducido al español

Leer más »

Academia ThinkBIG: Cómo la experiencia del usuario impulsa la innovación en ingeniería y tecnología

Tsukamoto-San, el nuevo jefe de desarrollo comercial de Lenovo, comparte información exclusiva sobre la creación del nuevo buque insignia ThinkPad X9. Ingresa al legendario  laboratorio de investigación y desarrollo de ThinkPad en Yokohama, Japón , donde cobra vida la brillantez de la ingeniería de Lenovo. En la  serie ThinkBIG Academy , te llevamos detrás de escena de este centro de innovación, hogar de cientos de ingenieros que personifican 32 años de artesanía, innovación revolucionaria y diseño de ThinkPad. Episodio 1: Cómo la experiencia del usuario impulsa la innovación en ingeniería y tecnología En este episodio de estreno, el tecnólogo senior de historias Kevin Beck entrevista a Tsukamoto-San, el nuevo jefe de desarrollo comercial de Lenovo, quien comparte información exclusiva sobre la creación del nuevo producto insignia ThinkPad X9 anunciado en CES 2025 . Esta revolucionaria laptop combina el legado de 32 años de ThinkPad con  innovaciones impulsadas por IA . Desde la gestión térmica inteligente y las videoconferencias mejoradas por IA hasta la tecnología pionera de cámaras y parlantes, la X9 supera los límites y al mismo tiempo honra la tradición de ingeniería de precisión y artesanía de ThinkPad. Pero es más que sólo especificaciones: es una computadora portátil diseñada a partir de información real de clientes, diseñada por ingenieros que resuelven problemas del mundo real en el corazón del laboratorio de investigación y desarrollo de Lenovo. Experimente la innovación, conozca las mentes detrás de ella y sea testigo de cómo el legado de ThinkPad continúa redefiniendo el futuro de las PC. Lenovo News. Traducido al español

Leer más »

Estudio de IBM: Se espera que el gasto en IA aumente un 52 % más allá de los presupuestos de TI a medida que las marcas minoristas adoptan la innovación en toda la empresa

 El informe encontró que el 81% de los ejecutivos encuestados y el 96% de sus equipos ya están utilizando IA en un grado moderado o significativo.  Los ejecutivos indican que quieren expandirse a casos de uso de IA más sofisticados, como la planificación empresarial integrada, donde planean aumentar el uso en un 82% en 20257 de enero de 2025 NUEVA YORK , 7 de enero de 2025 / PRNewswire / — Un nuevo estudio global del IBM (NYSE: IBM ) Institute for Business Value descubrió que los ejecutivos de productos de consumo y minoristas encuestados están cambiando drásticamente su enfoque hacia la inteligencia artificial (IA), y las respuestas indican que los participantes proyectan que el gasto fuera de las operaciones de TI tradicionales podría aumentar un 52% en el próximo año. El informe, titulado « Incorporar la IA en el ADN de su marca «, revela cómo se están preparando las marcas para la próxima fase de transformación impulsada por la IA en toda la empresa. Para 2025, las empresas minoristas y de productos de consumo encuestadas afirman que planean asignar un promedio del 3,32 % de sus ingresos a la IA, lo que equivale a 33,2 millones de dólares anuales para una empresa de 1.000 millones de dólares . Se prevé que esta inversión abarque funciones como el servicio de atención al cliente, las operaciones de la cadena de suministro, la adquisición de talentos y la innovación en marketing, lo que pone de relieve la expansión de la IA más allá de las aplicaciones de TI tradicionales. Entre las conclusiones principales se incluyen las siguientes: «La IA ya no es solo una herramienta; es un imperativo estratégico», afirmó Dee Waddell , líder global de la industria de consumo, viajes y transporte de IBM. «Las empresas minoristas y de productos de consumo se encuentran en un punto de inflexión en el que la incorporación de la IA en sus operaciones puede ayudar a definir no solo las ganancias de productividad, sino también el futuro de la relevancia, el compromiso y la confianza de la marca». El informe destaca que las marcas exitosas pueden evolucionar y dejar de considerar la IA como un mero impulsor de la productividad para posicionarla como un motor central de la innovación empresarial. Para lograr esta transformación será necesario repensar las estrategias tradicionales de gobernanza y de capacitación. Los minoristas deben adaptar las iniciativas de IA para que se alineen con las prioridades de su marca y colaborar con socios estratégicos, incluidas las empresas emergentes y las empresas de tecnología. Igualmente importante es romper los silos entre los líderes financieros, tecnológicos y empresariales. Al fomentar la colaboración interfuncional, estas partes interesadas pueden construir conjuntamente sólidos casos de negocios que demuestren cómo la IA puede ayudar a generar una ventaja competitiva a largo plazo. Conéctese con IBM en NRF 2025:  La IA ocupa un lugar central para IBM en NRF’25. Únase a nosotros para analizar cómo la tecnología está mejorando todo, desde la interacción con el cliente y la personalización hasta la eficiencia operativa. Compartiremos ejemplos innovadores en marketing, gestión de la cadena de suministro y sostenibilidad. Los expertos de la industria de IBM estarán en el stand n.° 4639. Manténgase actualizado a través de nuestra página web de NRF . #NRF2025 Para obtener más información y acceder al informe completo, visite aquí . Metodología El IBM Institute for Business Value (IBM IBV), en cooperación con Oxford Economics, encuestó a 1.500 ejecutivos globales de productos minoristas y de consumo en 15 países en el tercer trimestre de 2024. El 50% de la muestra representaba a la industria minorista y el 50% representaba a productos de consumo en nueve países en el tercer trimestre de 2024. A los participantes se les formuló una serie de preguntas en distintos formatos (como preguntas numéricas de opción múltiple y escala Likert). Se les preguntó sobre las expectativas, los resultados, las preocupaciones y las barreras de su organización para escalar o planificar la escala de la IA/IA general dentro de la empresa y entre sus socios del ecosistema. Para lograrlo, el IBM IBV realizó una serie de análisis de contraste, incluidas comparaciones por pares y clasificación de datos mediante agrupamiento jerárquico, destacando las diferencias en los resultados, como se muestra en este informe. El nivel de significación para todos los análisis se estableció en el nivel (p < 0,05).

Leer más »