El Portal de las Tecnologías para la Innovación

Categoría: La IA aplicada a la Educación

¿Qué sabemos sobre la economía de la IA?

El premio Nobel Daron Acemoglu ha estudiado durante mucho tiempo el crecimiento impulsado por la tecnología. Así es como piensa sobre el efecto de la IA en la economía. A pesar de todo lo que se dice sobre la inteligencia artificial que cambiará el mundo, sus efectos económicos siguen siendo inciertos. Hay inversiones masivas en IA, pero no se sabe con certeza qué producirá. El estudio de la IA se ha convertido en una parte importante del trabajo del economista ganador del Nobel Daron Acemoglu. Acemoglu, profesor del Instituto Tecnológico de Massachusetts (MIT), lleva mucho tiempo estudiando el impacto de la tecnología en la sociedad, desde la modelización de la adopción a gran escala de innovaciones hasta la realización de estudios empíricos sobre el impacto de los robots en los puestos de trabajo. En octubre, Acemoglu también compartió el Premio Sveriges Riksbank en Ciencias Económicas 2024 en memoria de Alfred Nobel con dos colaboradores, Simon Johnson, PhD ’89 de la MIT Sloan School of Management y James Robinson de la Universidad de Chicago, por su investigación sobre la relación entre las instituciones políticas y el crecimiento económico. Su trabajo muestra que las democracias con derechos sólidos mantienen un mejor crecimiento a lo largo del tiempo que otras formas de gobierno. Dado que gran parte del crecimiento proviene de la innovación tecnológica, la forma en que las sociedades utilizan la IA es de gran interés para Acemoglu, quien ha publicado una variedad de artículos sobre la economía de la tecnología en los últimos meses. “¿De dónde saldrán las nuevas tareas para los humanos con la IA generativa?”, pregunta Acemoglu. “No creo que las sepamos todavía, y esa es la cuestión. ¿Cuáles son las aplicaciones que realmente van a cambiar la forma en que hacemos las cosas?” ¿Cuáles son los efectos mensurables de la IA? Desde 1947, el crecimiento del PIB de Estados Unidos ha sido en promedio de alrededor del 3 por ciento anual, con un crecimiento de la productividad de alrededor del 2 por ciento anual. Algunas predicciones han afirmado que la IA duplicará el crecimiento o al menos creará una trayectoria de crecimiento más alta que lo habitual. En cambio, en un artículo, “ La macroeconomía simple de la IA ”, publicado en la edición de agosto de Economic Policy , Acemoglu estima que durante la próxima década, la IA producirá un “aumento modesto” del PIB de entre el 1,1 y el 1,6 por ciento en los próximos 10 años, con un aumento anual de aproximadamente el 0,05 por ciento en la productividad. La evaluación de Acemoglu se basa en estimaciones recientes sobre cuántos empleos se ven afectados por la IA, incluido un estudio de 2023 realizado por investigadores de OpenAI, OpenResearch y la Universidad de Pensilvania, que concluye que alrededor del 20 por ciento de las tareas laborales de EE. UU. podrían estar expuestas a capacidades de IA. Un estudio de 2024 realizado por investigadores de MIT FutureTech, así como del Productivity Institute e IBM, concluye que alrededor del 23 por ciento de las tareas de visión artificial que pueden automatizarse en última instancia podrían realizarse de manera rentable en los próximos 10 años. Aún más investigaciones sugieren que el ahorro de costos promedio de la IA es de alrededor del 27 por ciento. En lo que respecta a la productividad, “no creo que debamos subestimar un 0,5 por ciento en 10 años. Eso es mejor que cero”, afirma Acemoglu. “Pero es simplemente decepcionante en relación con las promesas que están haciendo las personas de la industria y del periodismo tecnológico”. Sin duda, se trata de una estimación, y podrían surgir aplicaciones adicionales de la IA: como escribe Acemoglu en el artículo, su cálculo no incluye el uso de la IA para predecir las formas de las proteínas, por lo que otros académicos compartieron posteriormente un Premio Nobel en octubre. Otros observadores han sugerido que las “reasignaciones” de trabajadores desplazados por la IA crearán un crecimiento y una productividad adicionales, más allá de las estimaciones de Acemoglu, aunque él no cree que esto tenga mucha importancia. “Las reasignaciones, a partir de la asignación real que tenemos, normalmente generan solo pequeños beneficios”, dice Acemoglu. “Los beneficios directos son lo importante”. Y añade: “He intentado redactar el documento de forma muy transparente, explicando qué se incluye y qué no. La gente puede estar en desacuerdo diciendo que las cosas que he excluido son importantes o que las cifras de las cosas incluidas son demasiado modestas, y eso está perfectamente bien”. ¿Que trabajos? Realizar este tipo de estimaciones puede agudizar nuestras intuiciones sobre la IA. Muchos pronósticos sobre la IA la han descrito como revolucionaria; otros análisis son más cautelosos. El trabajo de Acemoglu nos ayuda a comprender en qué escala podemos esperar cambios. “Vayamos al año 2030”, dice Acemoglu. “¿En qué medida cree que la economía estadounidense cambiará gracias a la IA? Podría ser un completo optimista en materia de IA y pensar que millones de personas habrían perdido su trabajo gracias a los chatbots, o tal vez que algunas personas se han convertido en trabajadores superproductivos porque con la IA pueden hacer diez veces más cosas que antes. No lo creo. Creo que la mayoría de las empresas seguirán haciendo más o menos lo mismo. Algunas profesiones se verán afectadas, pero seguiremos teniendo periodistas, seguiremos teniendo analistas financieros y seguiremos teniendo empleados de recursos humanos”. Si eso es correcto, entonces la IA probablemente se aplique a un conjunto limitado de tareas de cuello blanco, donde grandes cantidades de poder computacional pueden procesar una gran cantidad de entradas más rápido que los humanos. “Esto afectará a muchos empleos de oficina que implican resumen de datos, comparación visual, reconocimiento de patrones, etcétera”, añade Acemoglu. “Y esos son, en esencia, alrededor del 5 por ciento de la economía”. Aunque a veces se ha considerado a Acemoglu y Johnson como escépticos respecto de la IA, ellos se consideran realistas. “Estoy tratando de no ser pesimista”, dice Acemoglu. “Hay cosas que la IA generativa puede hacer y

Leer más »

La Cámara de Diputados de la Provincia de Buenos Aires declara de Interés Legislativo los programas educativos de Samsung

Samsung Argentina celebra el reconocimiento otorgado por la Cámara de Diputados de la Provincia de Buenos Aires, que ha declarado de interés legislativo los programas formativos Solve For Tomorrow y Samsung Innovation Campus, valorando el impacto positivo de estas iniciativas en el desarrollo y bienestar de las comunidades. Solve for Tomorrow (Soluciones para el Futuro, en español) motiva a estudiantes y docentes de escuelas secundarias de la Argentina, Paraguay y Uruguay a desarrollar soluciones creativas a problemáticas locales mediante el uso de ciencia, tecnología, ingeniería y matemáticas (STEM), en línea con los Objetivos de Desarrollo Sostenible (ODS) de la ONU.  A través de sus pilares de sociedad justa, cuidado del ambiente, salud y educación, Solve For Tomorrow impulsa una educación inclusiva y comprometida, promoviendo la aplicación práctica del conocimiento y la creatividad en la resolución de desafíos sociales y ambientales. La edición 2024, lanzada el 30 de abril, se basa en un proceso de aprendizaje por etapas —ideación, co-creación y consolidación— donde los participantes desarrollan y presentan prototipos innovadores. Desde 2014, el programa ha inspirado más de 7.000 proyectos, trabajando junto a 4.500 escuelas y alcanzando a estudiantes de diversas comunidades. La edición pasada incluyó el destacado proyecto “NitratoCero” de la Escuela Secundaria N°3 de Carlos Casares, una solución tecnológica para reducir los niveles de nitrato en agua de consumo humano, logrando un impacto concreto en el ámbito local. Asimismo, la cuarta edición de Samsung Innovation Campus ha sido reconocida por su compromiso en la capacitación de jóvenes mujeres en inteligencia artificial y análisis de datos, con un enfoque en reducir la brecha de género en el ámbito de la tecnología.  El programa adopta el concepto de campus universitario a través de más de 100 horas de formación en habilidades técnicas y blandas que facilitan la inserción laboral de mujeres en un sector altamente demandado, en colaboración con instituciones y organismos como la Asociación Conciencia, la Subsecretaría de Producción de Escobar, el Polo Tecnológico de Garín, y la Subsecretaría de Promoción y Desarrollo de Capacidades para la Economía del Conocimiento de Tierra del Fuego. Con el apoyo de estos aliados, las participantes reciben capacitación en diversas áreas, incluyendo Internet de las Cosas (IoT), habilidades técnicas en programación y tecnología, y habilidades blandas para mejorar sus oportunidades de empleo. Además, el programa les brinda simulaciones de entrevistas y mentorías individuales y grupales, a cargo de profesionales voluntarios de Samsung y la Fundación Mirgor, lo que les permite tener una experiencia laboral temprana y obtener certificados valorados en la industria. Ambas declaraciones, fueron impulsadas por la Diputada Viviana Guzzo quien ingresó a la Legislatura Bonaerense el 2019, siendo reelecta en el año 2023. Integra la Comisión de Educación, y es Vicepresidenta de la Comisión de Relaciones Parlamentarias entre otras. La diputada tiene gran recorrido en la docencia, además se desempeñó como Directora de Cultura, Educación y Relaciones Institucionales de General Viamonte en el período 2003 al 2011 y desde el año 2011 al 2015, como Directora Provincial de Artes Visuales y Directora del Museo Provincial de Bellas Artes Emilio Pettoruti. Estos reconocimientos reafirman el compromiso de Samsung con la educación y la inclusión, fomentando el desarrollo de habilidades tecnológicas y creativas que son clave para el futuro de las próximas generaciones. Samsung News. Traducido al español

Leer más »

Descifrando los misterios del universo

Un nuevo centro reúne la astrofísica, la ciencia de datos y la inteligencia artificial para responder algunas de las preguntas más importantes del universo. ¿A qué velocidad se expande el universo? ¿Qué es la materia oscura? ¿De dónde venimos? Estas preguntas sobre la vida, el universo y todo lo demás son sólo algunos de los grandes temas que motivan el nuevo Centro para Descifrar el Universo en Stanford. El centro, que se inauguró en octubre, es una asociación interdisciplinaria entre  Stanford Data Science (SDS) y el  Instituto Kavli de Astrofísica de Partículas y Cosmología (KIPAC) . Es el más nuevo de los cinco centros dirigidos por profesores de SDS que reúnen disciplinas de todo el campus con experiencia en ciencia de datos. La asociación fue perfecta para KIPAC, que es a su vez una colaboración entre Stanford y el Laboratorio Nacional de Aceleradores SLAC . “En comparación con otras disciplinas, los astrónomos son relativamente los primeros en adoptar herramientas de estadística, inteligencia artificial y aprendizaje automático de vanguardia”, dijo  Risa Wechsler , directora de KIPAC y profesora de Humanidades y Ciencias y profesora de Física en la Escuela de Humanidades y Ciencias (H&S). Wechsler es directora del nuevo centro junto con la codirectora  Susan Clark , profesora adjunta de Física en H&S. “Tenemos muchas ventajas divertidas en astronomía, ya que tenemos una gran cantidad de datos y son cada vez más complejos”. ‘Una revolución de datos’ La cantidad de datos disponibles está aumentando a escala astronómica, y estos investigadores ya han estado a la vanguardia de esa abundancia. Recientemente, los investigadores y científicos del SLAC, incluido Wechsler, ayudaron con el desarrollo y la creación de la cámara digital más grande del mundo para astronomía. Como parte del Legacy Survey of Space and Time (LSST) en el Observatorio Vera C. Rubin de la NSF-DOE en Chile, la cámara LSST tomará imágenes de todo el hemisferio sur durante la próxima década, produciendo 15 terabytes de datos cada noche. Rubin es operado conjuntamente por NOIRLab de la NSF y el SLAC. «En el ámbito de la astrofísica, nos encontramos en una revolución de los datos. Estamos entrando en una era en la que el volumen y la velocidad de los nuevos datos astronómicos no se pueden aprovechar en absoluto con muchas de nuestras técnicas tradicionales», afirmó Clark. La explosión de datos coincide con rápidos avances en el aprendizaje automático y la inteligencia artificial, que pueden utilizarse para desarrollar y aplicar herramientas para analizar lo que llega. “Tenemos desafíos realmente interesantes en este momento: ¿Cómo lidiar con 20 mil millones de objetos 3D de los cuales solo tenemos imágenes 2D? ¿Cómo obtener otra información sobre ellos? ¿Cómo combinar diferentes tipos de datos con diferentes longitudes de onda?”, dijo Wechsler, quien también es profesor de física de partículas y astrofísica en SLAC. “Es un momento especial en astronomía y un momento especial en inteligencia artificial. Reunirlos ahora es muy emocionante”. Ahí es donde entra en juego la facultad de SDS. SDS reúne a investigadores que están planteando grandes preguntas a sus conjuntos de datos con expertos en las últimas técnicas de aprendizaje automático, computación, estadística, ciencia de datos y análisis. “Todos en el campus están más o menos involucrados en la ciencia de datos, es un tema que atraviesa todas nuestras escuelas. La idea era cómo podemos ser mejores que la suma de nuestras partes”, dijo  Emmanuel Candès , director de la facultad de SDS y titular de la Cátedra Barnum-Simons de Matemáticas y Estadística en H&S. “Hay grandes problemas en la astrofísica, y muchos de ellos están impulsados ​​por los datos. ¿Podemos crear un poco de magia haciendo que los principales científicos como Risa hablen con expertos en métodos como yo? Juntos podemos hacer más que si simplemente trabajamos en silos en estos temas”. La asociación crea colaboraciones profundas y promueve simultáneamente metodologías de ciencia de datos y astrofísica, y agrega valor y significado para todos los involucrados. Parafraseando al difunto John Tukey, “los estadísticos deberían jugar en el patio trasero de los demás”, dijo Candès. “Es muy importante que nuestro trabajo esté inspirado en preguntas reales. Estas interacciones a través de los centros SDS benefician a nuestros colegas y a mí porque estoy en contacto con cosas que importan. Orienta mi trabajo en una dirección que puede tener un gran impacto”. Haciendo las grandes preguntas Los terabytes de datos nocturnos del Observatorio Rubin son sólo uno de los recursos a disposición de los investigadores de Stanford en el Centro para la Descodificación del Universo. Con esta información, pretenden abordar algunas cuestiones importantes. “Queremos utilizar esos datos para responder a las preguntas más fundamentales sobre el universo: ¿Cómo funcionan las estrellas y las galaxias? ¿De qué está hecho el universo? ¿Cuál es la naturaleza de la materia oscura? ¿Por qué se expande el universo?”, dijo Wechsler. Son preguntas verdaderamente universales y que hablan de lo que significa ser humano. “Los seres humanos de todas las culturas y desde el principio de los tiempos se han preguntado cuál es nuestro lugar en el universo”, afirmó. “Ahora tengo el privilegio de ser parte de la generación de seres humanos que realmente está cartografiando la mayor parte del universo. Tal vez no afecte nuestra vida cotidiana, pero sí afecta la forma en que nos consideramos humanos. Ese contexto es muy importante”. Una de las pasiones de Wechsler es la materia oscura, que constituye la mayor parte de la masa del universo y, sin embargo, no se comprende bien. El LSST de Rubin va a crear mapas de la materia oscura en el cielo austral que ayudarán a los científicos a entender cómo ha evolucionado durante los últimos 13.000 millones de años. Las pistas proceden directamente de la luz que ve Rubin, así como de la forma en que la gravedad distorsiona esa luz mediante el llamado «efecto de lente gravitacional». Tanto el efecto de lente gravitacional como la nueva capacidad de Rubin para detectar las galaxias más diminutas del universo pueden proporcionar nuevos conocimientos sobre la naturaleza de la materia oscura. La investigación de Clark se centra en el medio interestelar, es

Leer más »

Conozca a los investigadores que diseñan la tecnología del futuro en el nuevo Centro de Robótica de Stanford

Los profesores de toda la universidad están creando robots avanzados e inteligentes con capacidades de gran alcance. La investigación en robótica de Stanford se remonta a más de 50 años. Uno de los primeros avances fue Shakey , desarrollado por SRI, una institución afiliada a Stanford, en 1966, que se parecía a una torre tambaleante de piezas de computadora. Con el tiempo, los diseños se han vuelto más elegantes y sofisticados. Hoy en día, los robots de Stanford incluyen un buceador humanoide de aguas profundas, un trepador parecido a un geco y un robot blando que crece como una enredadera. Este otoño, se inauguró el nuevo Centro de Robótica de Stanford , que ofrece un espacio para que la investigación en robótica siga floreciendo en Stanford Engineering. El centro incluye seis bahías para probar y exhibir robots, incluidas áreas que se asemejan a cocinas, dormitorios, hospitales y almacenes. Los profesores de Stanford Engineering están ansiosos por utilizar el espacio no solo para avanzar en sus diseños, sino también para trabajar más de cerca con sus colegas. «Realizaremos nuestra investigación codo a codo en un espacio abierto», dice Karen Liu , profesora de informática. «Tendremos más colaboración en la investigación, porque ahora somos vecinos». He aquí una breve visión del trabajo que algunos de nuestros profesores están realizando en este espacio. Renee Zhao: Robots blandos para cirugía mínimamente invasiva Los órganos humanos son blandos y esponjosos. Los dispositivos médicos en general no lo son. Esto es un problema para hacer que las cirugías sean menos invasivas, ya que insertar un tubo a través de un vaso sanguíneo u otro tracto corporal puede ser difícil y potencialmente dañino. “Nos interesan los sistemas blandos porque en ellos, esencialmente, tienes infinitos grados de libertad: cada punto material puede deformarse”, dice Renee Zhao , profesora adjunta de ingeniería mecánica. “Es mejor para interactuar con los seres humanos porque tenemos tejidos blandos”. Utilizando robots similares al origami hechos de plástico blando e imanes, Zhao está desarrollando los robots médicos del futuro. Algunos de sus diseños se inspiran en los movimientos de animales, como el brazo de un pulpo, la trompa de un elefante y una lombriz de tierra que avanza lentamente. Su último proyecto parece un cilindro flotante del tamaño de una píldora con una hélice. Utilizando una réplica de polímero de los vasos sanguíneos del cerebro, probó si este nadador podría navegar con éxito por los giros y vueltas para reducir el tamaño de un coágulo de sangre y tratar un derrame cerebral. Los investigadores mueven el robot utilizando un campo magnético y un joystick. En un futuro quirófano, Zhao dice que los médicos podrían rastrear al robot a través de rayos X, lo que les permitiría guiarlo hasta un coágulo de sangre. «Uno de los mayores desafíos para los procedimientos que utilizan radiología intervencionista es la capacidad de seguimiento y navegación», dice. Al eliminar esas limitaciones, dice, «queremos revolucionar la cirugía mínimamente invasiva existente». Karen Liu: Imitar el movimiento humano para ayudarnos a desplazarnos El objetivo de Liu, que se inspiró originalmente en personajes de videojuegos, es comprender cómo nos movemos . “La pregunta fundamental es si podemos entender cómo funciona el cuerpo humano hasta el punto de poder recrearlo”, afirma. Para lograrlo, está enseñando a los robots a moverse de forma más parecida a la nuestra. Mediante el uso de varios sensores que captan vídeo, aceleración, par motor y otras variables, los investigadores reúnen datos que pueden introducirse en “gemelos digitales”, modelos informáticos que se basan en esa información para predecir por sí solos el movimiento humano. Una de las aplicaciones en las que trabaja Liu es un exoesqueleto robótico que puede predecir cuándo el usuario pierde el equilibrio y activarse cuando es necesario para evitar una caída. Aprender del movimiento humano es fundamental porque este exoesqueleto tendrá un conocimiento íntimo de su portador, obtenido a partir de sensores y algoritmos de aprendizaje automático. «Es una máquina que solo te brinda asistencia cuando la necesitas», dice, lo que es posible gracias a un profundo conocimiento de cómo se mueven los humanos y el usuario individual. Jeannette Bohg: Comprender cómo nuestras manos manipulan los objetos Para que los robots sean funcionales en lugares como nuestros hogares, necesitan poder agarrar una variedad de objetos, lo cual es más complicado de lo que parece. Para Jeannette Bohg , profesora adjunta de informática, la forma en que usamos nuestras manos es un rompecabezas tentador . Por ejemplo, si ponemos un vaso de agua sobre una mesita de noche, el robot con inteligencia artificial no solo tiene que localizar el vaso transparente y ver dónde se deforman los bordes, sino que también tiene que sujetarlo con la presión adecuada: si lo hace con demasiada fuerza, se romperá; si lo hace con demasiada suavidad, se resbalará. Además, tiene que tener en cuenta la fricción del vaso y la condensación que lo hace resbaladizo. “No es posible escribir con precisión cómo se debe sujetar un vaso, como se puede escribir con precisión una partida de ajedrez”, afirma Bohg. “No tenemos toda la información sobre el entorno y no podemos describir la interacción entre nuestras manos y estos objetos con la suficiente precisión”. Para resolver este problema, Bohg recurre a métodos de aprendizaje automático. Como es imposible indicarle a un robot mediante un código cómo debe coger un objeto, Bohg demuestra acciones y registra datos en sensores de visión y tacto. Después, a lo largo de muchos ejemplos, la IA aprende a realizar la acción de agarrar. “Si tuviéramos robots que pudieran manipular todas estas cosas, serían muy útiles de muchas maneras diferentes en nuestro mundo”, afirma Bohg. Canción Shuran: Ayudando a los robots domésticos a generalizarse  Un obstáculo para la construcción de nuevos robots es la recopilación de datos de entrenamiento. Tradicionalmente, esto requeriría que un técnico capacitado operara el robot a través de múltiples demostraciones. Pero ese proceso es muy costoso y difícil de escalar, explica Shuran Song , profesor adjunto de ingeniería eléctrica. Song está ayudando a resolver ese problema a través de UMI, la Interfaz Universal de Manipulación. UMI es esencialmente una

Leer más »

Un vistazo al interior de la caja que podría ayudar a resolver un misterio cuántico

Una esquiva partícula que se formó por primera vez en el denso y caliente universo primitivo ha desconcertado a los físicos durante décadas. Tras su descubrimiento en 2003, los científicos comenzaron a observar una serie de otros objetos extraños vinculados a las millonésimas de segundo posteriores al Big Bang. Estas señales, que aparecen como «protuberancias» en los datos de los experimentos de alta energía, llegaron a conocerse como «estados XYZ» de corta duración. Desafían la imagen estándar del comportamiento de las partículas y son un problema en la física contemporánea, lo que ha dado lugar a varios intentos de comprender su naturaleza misteriosa. Pero los teóricos del Acelerador Nacional Thomas Jefferson del Departamento de Energía de Estados Unidos en Virginia, con colegas de la Universidad de Cambridge, sugieren que los datos experimentales podrían explicarse con menos estados XYZ, también llamados resonancias, de lo que se afirma actualmente. El equipo utilizó una rama de la física cuántica para calcular los niveles de energía, o masa, de partículas que contienen un «sabor» específico de los bloques de construcción subatómicos conocidos como quarks. Los quarks, junto con los gluones, una partícula portadora de fuerza, conforman la fuerza fuerte, una de las cuatro fuerzas fundamentales de la naturaleza. Los investigadores descubrieron que varios estados de partículas que comparten el mismo grado de espín (o momento angular) están acoplados, lo que significa que solo existe una única resonancia en cada canal de espín. Esta nueva interpretación es contraria a varios otros estudios teóricos y experimentales. Los investigadores han presentado sus resultados en un par de artículos complementarios publicados para la colaboración internacional Hadron Spectrum Collaboration (HadSpec) en Physical Review Letters y Physical Review D. El trabajo también podría proporcionar pistas sobre una partícula enigmática: X(3872). El quark charm, uno de los seis «sabores» de quarks, fue observado experimentalmente por primera vez en 1974. Fue descubierto junto con su contraparte de antimateria, el anticharm, y las partículas emparejadas de esta manera son parte de una región de energía llamada «charmonium». En 2003, investigadores japoneses descubrieron un nuevo candidato a charmonium denominado X(3872): un estado de partícula de vida corta que parece desafiar el modelo actual de quarks. “X(3872) ya tiene más de 20 años y todavía no hemos obtenido una explicación clara y sencilla que todos puedan aceptar”, dijo el autor principal, el Dr. David Wilson, del Departamento de Matemáticas Aplicadas y Física Teórica de Cambridge (DAMTP). Gracias al poder de los aceleradores de partículas modernos, los científicos han detectado una mezcolanza de estados candidatos exóticos de charmonium durante las últimas dos décadas. “Los experimentos de alta energía empezaron a detectar protuberancias, interpretadas como nuevas partículas, casi en todas partes”, dijo el coautor, el profesor Jozef Dudek de William & Mary. “Y muy pocos de estos estados coincidían con el modelo anterior”. Pero ahora, al crear una pequeña «caja» virtual para simular el comportamiento de los quarks, los investigadores descubrieron que varias supuestas partículas XYZ podrían ser en realidad una sola partícula vista de diferentes maneras. Esto podría ayudar a simplificar la confusa maraña de datos que los científicos han recopilado a lo largo de los años. A pesar de los pequeños volúmenes con los que trabajaban, el equipo necesitaba una enorme potencia computacional para simular todos los comportamientos y masas posibles de los quarks. Los investigadores utilizaron supercomputadoras de Cambridge y del Laboratorio Jefferson para inferir todas las formas posibles en que los mesones (compuestos por un quark y su contraparte de antimateria) podrían desintegrarse. Para ello, tuvieron que relacionar los resultados de su diminuta caja virtual con lo que sucedería en un volumen casi infinito, es decir, el tamaño del universo. “En nuestros cálculos, a diferencia de los experimentos, no se pueden simplemente introducir dos partículas y medir las dos que salen”, dijo Wilson. “Hay que calcular simultáneamente todos los estados finales posibles, porque la mecánica cuántica los encontrará por uno”. Los resultados pueden entenderse en términos de una única partícula de vida corta cuya apariencia podría diferir dependiendo del posible estado de desintegración en el que se observe. “Estamos tratando de simplificar el panorama lo máximo posible, utilizando la teoría fundamental con los mejores métodos disponibles”, dijo Wilson. “Nuestro objetivo es desentrañar lo que se ha visto en los experimentos”. Ahora que el equipo ha demostrado que este tipo de cálculo es factible, están listos para aplicarlo a la misteriosa partícula X(3872). “El origen de X(3872) es una incógnita”, afirmó Wilson. “Parece que está muy cerca de un umbral, que podría ser accidental o una parte clave de la historia. Es algo que estudiaremos muy pronto”. El profesor Christopher Thomas, también de DAMTP, es miembro de la Hadron Spectrum Collaboration y coautor de los estudios actuales. La contribución de Wilson fue posible en parte gracias a una beca de ocho años con la Royal Society. La investigación también recibió apoyo parcial del Science and Technology Facilities Council (STFC), parte de UK Research and Innovation (UKRI). Muchos de los cálculos para este estudio se llevaron a cabo con el apoyo del Cambridge Centre for Data Driven Discovery (CSD3) y las instalaciones de computación de alto rendimiento DiRAC en Cambridge, administradas por la división Research Computing Services de Cambridge . Referencia:David J. Wilson et al. ‘ Resonancias escalares y tensoriales de armonium en dispersión de canal acoplado a partir de QCD en red ‘. Physical Review Letters (2024). DOI: 10.1103/PhysRevLett.132.241901 David J. Wilson et al. ‘ Resonancias de Charmonium xc0 y xc2 en dispersión de canal acoplado a partir de QCD en red ‘. Physical Review D (2024). DOI: 10.1103/PhysRevD.109.114503 Cambridge News. Traducido al español

Leer más »

Una nueva forma de crear formas 3D realistas utilizando IA generativa

Los investigadores proponen una solución sencilla a una técnica existente que podría ayudar a artistas, diseñadores e ingenieros a crear mejores modelos 3D. Crear modelos 3D realistas para aplicaciones como realidad virtual, realización cinematográfica y diseño de ingeniería puede ser un proceso engorroso que requiere mucho ensayo y error manual. Si bien los modelos de inteligencia artificial generativa para imágenes pueden agilizar los procesos artísticos al permitir que los creadores produzcan imágenes 2D realistas a partir de indicaciones de texto, estos modelos no están diseñados para generar formas 3D. Para salvar esa brecha, una técnica desarrollada recientemente llamada Score Distillation aprovecha los modelos de generación de imágenes 2D para crear formas 3D, pero el resultado suele ser borroso o caricaturesco. Los investigadores del MIT exploraron las relaciones y diferencias entre los algoritmos utilizados para generar imágenes 2D y formas 3D, identificando la causa principal de los modelos 3D de menor calidad. A partir de ahí, crearon una solución sencilla para Score Distillation, que permite la generación de formas 3D nítidas y de alta calidad que se acercan en calidad a las mejores imágenes 2D generadas por modelos.  Otros métodos intentan solucionar este problema reentrenando o ajustando el modelo de IA generativa, lo que puede resultar costoso y llevar mucho tiempo. En cambio, la técnica de los investigadores del MIT logra una calidad de forma 3D igual o mejor que la de estos métodos sin necesidad de entrenamiento adicional ni posprocesamiento complejo. Además, al identificar la causa del problema, los investigadores han mejorado la comprensión matemática de Score Distillation y técnicas relacionadas, lo que permite realizar trabajos futuros para mejorar aún más el rendimiento. “Ahora sabemos hacia dónde debemos dirigirnos, lo que nos permite encontrar soluciones más eficientes, más rápidas y de mayor calidad”, afirma Artem Lukoianov, estudiante de posgrado en ingeniería eléctrica y ciencias de la computación (EECS) y autor principal de un artículo sobre esta técnica. “A largo plazo, nuestro trabajo puede ayudar a facilitar el proceso para ser un copiloto para los diseñadores, lo que facilitará la creación de formas 3D más realistas”. Los coautores de Lukoianov son Haitz Sáez de Ocáriz Borde, estudiante de posgrado en la Universidad de Oxford; Kristjan Greenewald, científico investigador en el Laboratorio de IA Watson del MIT-IBM; Vitor Campagnolo Guizilini, científico en el Instituto de Investigación Toyota; Timur Bagautdinov, científico investigador en Meta; y los autores principales Vincent Sitzmann, profesor asistente de EECS en el MIT que dirige el Grupo de Representación de Escenas en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) y Justin Solomon, profesor asociado de EECS y líder del Grupo de Procesamiento de Datos Geométricos del CSAIL. La investigación se presentará en la Conferencia sobre Sistemas de Procesamiento de Información Neural. De imágenes 2D a formas 3D Los modelos de difusión, como DALL-E, son un tipo de modelo de IA generativo que puede producir imágenes realistas a partir de ruido aleatorio. Para entrenar estos modelos, los investigadores añaden ruido a las imágenes y luego enseñan al modelo a revertir el proceso y eliminar el ruido. Los modelos utilizan este proceso aprendido de «eliminación de ruido» para crear imágenes basadas en las indicaciones de texto del usuario. Sin embargo, los modelos de difusión no son capaces de generar directamente formas 3D realistas porque no hay suficientes datos 3D para entrenarlos. Para solucionar este problema, los investigadores desarrollaron en 2022 una técnica llamada  Score Distillation Sampling (SDS) que utiliza un modelo de difusión entrenado previamente para combinar imágenes 2D en una representación 3D. La técnica consiste en comenzar con una representación 3D aleatoria, generar una vista 2D de un objeto deseado desde un ángulo de cámara aleatorio, agregar ruido a esa imagen, eliminar el ruido con un modelo de difusión y luego optimizar la representación 3D aleatoria para que coincida con la imagen eliminada. Estos pasos se repiten hasta que se genera el objeto 3D deseado. Sin embargo, las formas 3D producidas de esta manera tienden a verse borrosas o sobresaturadas. “Esto ha sido un obstáculo durante un tiempo. Sabemos que el modelo subyacente es capaz de hacerlo mejor, pero la gente no sabía por qué sucede esto con las formas 3D”, dice Lukoianov. Los investigadores del MIT exploraron los pasos del SDS e identificaron una discrepancia entre una fórmula que forma parte clave del proceso y su contraparte en los modelos de difusión 2D. La fórmula le indica al modelo cómo actualizar la representación aleatoria agregando y eliminando ruido, un paso a la vez, para que se parezca más a la imagen deseada. Como parte de esta fórmula implica una ecuación demasiado compleja para resolverla de manera eficiente, SDS la reemplaza con ruido muestreado aleatoriamente en cada paso. Los investigadores del MIT descubrieron que este ruido genera formas tridimensionales borrosas o caricaturescas. Una respuesta aproximada En lugar de intentar resolver esta complicada fórmula con precisión, los investigadores probaron técnicas de aproximación hasta que identificaron la mejor. En lugar de tomar muestras aleatorias del término de ruido, su técnica de aproximación infiere el término faltante a partir de la representación actual de la forma 3D. “Al hacer esto, como predice el análisis del artículo, se generan formas 3D que parecen nítidas y realistas”, afirma. Además, los investigadores aumentaron la resolución de la representación de la imagen y ajustaron algunos parámetros del modelo para mejorar aún más la calidad de la forma 3D. Al final, pudieron utilizar un modelo de difusión de imágenes listo para usar y previamente entrenado para crear formas 3D suaves y de aspecto realista sin necesidad de un costoso reentrenamiento. Los objetos 3D son igualmente nítidos que los producidos con otros métodos que dependen de soluciones ad hoc. “Intentamos experimentar a ciegas con distintos parámetros, y a veces funciona y a veces no, pero no sabemos por qué. Sabemos que esa es la ecuación que tenemos que resolver. Ahora, esto nos permite pensar en formas más eficientes de resolverla”, afirma. Como su método se basa en un modelo de difusión previamente entrenado, hereda los sesgos y las

Leer más »

¿Quieres diseñar el coche del futuro? Aquí tienes 8.000 diseños para empezar.

Los ingenieros del MIT desarrollaron el mayor conjunto de datos de código abierto sobre diseños de automóviles, incluida su aerodinámica, que podría acelerar el diseño de automóviles ecológicos y vehículos eléctricos. El diseño de automóviles es un proceso iterativo y exclusivo. Los fabricantes de automóviles pueden pasar varios años en la fase de diseño de un automóvil, ajustando formas 3D en simulaciones antes de desarrollar los diseños más prometedores para las pruebas físicas. Los detalles y especificaciones de estas pruebas, incluida la aerodinámica de un diseño de automóvil determinado, normalmente no se hacen públicos. Por lo tanto, los avances significativos en el rendimiento, como la eficiencia del combustible o la autonomía de los vehículos eléctricos, pueden ser lentos y estar aislados de una empresa a otra. Los ingenieros del MIT afirman que la búsqueda de mejores diseños de automóviles puede acelerarse exponencialmente con el uso de herramientas de inteligencia artificial generativa que pueden analizar enormes cantidades de datos en segundos y encontrar conexiones para generar un diseño novedoso. Si bien existen tales herramientas de inteligencia artificial, los datos de los que se necesitaría aprender no estaban disponibles, al menos en ningún tipo de formato accesible y centralizado. Pero ahora, los ingenieros han puesto a disposición del público por primera vez un conjunto de datos de este tipo. El conjunto de datos, denominado DrivAerNet++, abarca más de 8.000 diseños de automóviles, que los ingenieros generaron basándose en los tipos de automóviles más comunes en el mundo actual. Cada diseño está representado en forma 3D e incluye información sobre la aerodinámica del automóvil (la forma en que fluiría el aire alrededor de un diseño determinado, basada en simulaciones de dinámica de fluidos que el grupo llevó a cabo para cada diseño). Cada uno de los 8000 diseños del conjunto de datos está disponible en varias representaciones, como malla, nube de puntos o una simple lista de parámetros y dimensiones del diseño. Por lo tanto, el conjunto de datos puede ser utilizado por diferentes modelos de IA que estén ajustados para procesar datos en una modalidad particular. DrivAerNet++ es el mayor conjunto de datos de código abierto sobre aerodinámica de automóviles que se ha desarrollado hasta la fecha. Los ingenieros prevén que se utilice como una amplia biblioteca de diseños de automóviles realistas, con datos aerodinámicos detallados que se pueden utilizar para entrenar rápidamente cualquier modelo de IA. Estos modelos pueden generar con la misma rapidez nuevos diseños que podrían dar lugar a automóviles más eficientes en cuanto a consumo de combustible y vehículos eléctricos con mayor autonomía, en una fracción del tiempo que le lleva a la industria automotriz hoy en día. “Este conjunto de datos sienta las bases para la próxima generación de aplicaciones de IA en ingeniería, promoviendo procesos de diseño eficientes, reduciendo los costos de I+D e impulsando avances hacia un futuro automotriz más sustentable”, afirma Mohamed Elrefaie, estudiante de posgrado en ingeniería mecánica en el MIT. Elrefaie y sus colegas presentarán un artículo que detalla el nuevo conjunto de datos y los métodos de inteligencia artificial que podrían aplicarse en él en la conferencia NeurIPS en diciembre. Sus coautores son Faez Ahmed, profesor adjunto de ingeniería mecánica en el MIT, junto con Angela Dai, profesora asociada de informática en la Universidad Técnica de Múnich, y Florin Marar de BETA CAE Systems. Llenando la brecha de datos Ahmed dirige el Laboratorio de Computación de Diseño e Ingeniería Digital (DeCoDE) en el MIT, donde su grupo explora formas en las que se pueden utilizar herramientas de inteligencia artificial y aprendizaje automático para mejorar el diseño de sistemas y productos de ingeniería complejos, incluida la tecnología automotriz. “A menudo, cuando se diseña un automóvil, el proceso de diseño es tan costoso que los fabricantes solo pueden hacer pequeños ajustes entre una versión y la siguiente”, afirma Ahmed. “Pero si se tienen conjuntos de datos más grandes y se conoce el rendimiento de cada diseño, ahora se pueden entrenar modelos de aprendizaje automático para que realicen iteraciones rápidas, de modo que haya más probabilidades de obtener un mejor diseño”. Y la velocidad, sobre todo en lo que respecta al avance de la tecnología automovilística, es especialmente apremiante ahora. “Este es el mejor momento para acelerar las innovaciones en materia de automóviles, ya que los automóviles son uno de los mayores contaminantes del mundo y, cuanto más rápido podamos reducir esa contribución, más podremos ayudar al clima”, afirma Elrefaie. Al analizar el proceso de diseño de nuevos automóviles, los investigadores descubrieron que, si bien existen modelos de IA que pueden analizar muchos diseños de automóviles para generar diseños óptimos, los datos de automóviles que están realmente disponibles son limitados. Algunos investigadores habían reunido previamente pequeños conjuntos de datos de diseños de automóviles simulados, mientras que los fabricantes de automóviles rara vez publican las especificaciones de los diseños reales que exploran, prueban y, en última instancia, fabrican. El equipo intentó llenar el vacío de datos, en particular con respecto a la aerodinámica de un automóvil, que desempeña un papel clave en la determinación de la autonomía de un vehículo eléctrico, y la eficiencia de combustible de un motor de combustión interna. Se dieron cuenta de que el desafío consistía en reunir un conjunto de datos de miles de diseños de automóviles, cada uno de los cuales es físicamente preciso en su función y forma, sin el beneficio de probar y medir físicamente su rendimiento. Para crear un conjunto de datos de diseños de automóviles con representaciones físicamente precisas de su aerodinámica, los investigadores comenzaron con varios modelos 3D de referencia que fueron proporcionados por Audi y BMW en 2014. Estos modelos representan tres categorías principales de automóviles de pasajeros: fastback (sedán con una parte trasera inclinada), notchback (sedán o cupé con una ligera inclinación en su perfil trasero) y estateback (como los station wagon con una parte trasera más roma y plana). Se cree que los modelos de referencia cierran la brecha entre los diseños simples y los diseños patentados más complicados, y

Leer más »

Presentamos ChatGPT Pro

A medida que la IA se vuelve más avanzada, resolverá problemas cada vez más complejos y críticos. También se necesita una cantidad considerablemente mayor de recursos computacionales para potenciar estas capacidades.  Hoy, agregamos ChatGPT Pro, un plan mensual de $200 que permite un acceso escalado a los mejores modelos y herramientas de OpenAI. Este plan incluye acceso ilimitado a nuestro modelo más inteligente, OpenAI o1, así como a o1-mini, GPT-4o y Advanced Voice. También incluye el modo o1 pro, una versión de o1 que usa más recursos computacionales para pensar más a fondo y brindar respuestas aún mejores a los problemas más difíciles. En el futuro, esperamos agregar funciones de productividad más potentes y con uso intensivo de recursos computacionales a este plan.  ChatGPT Pro ofrece una manera para que los investigadores, ingenieros y otras personas que utilizan inteligencia de grado de investigación a diario aceleren su productividad y estén a la vanguardia de los avances en IA. Más capacidad de pensamiento para problemas más difíciles ChatGPT Pro brinda acceso a una versión de nuestro modelo más inteligente que piensa durante más tiempo para obtener las respuestas más confiables. En las evaluaciones de evaluadores expertos externos, el modo o1 pro produce respuestas más confiables, precisas y completas, especialmente en áreas como ciencia de datos, programación y análisis de jurisprudencia. En comparación con o1 y o1-preview, el modo o1 pro funciona mejor en los exigentes puntos de referencia de ML en matemáticas, ciencias y codificación. Competencia de Matemáticas (AIME 2024) 5078860102030405060708090100pass@1 accuracyo1-previewo1o1 pro mode Código de competencia (Codeforces) 6289900102030405060708090100pass@1 percentileo1-previewo1o1 pro mode Preguntas científicas de nivel de doctorado (GPQA Diamond) 7476790102030405060708090100pass@1 accuracyo1-previewo1o1 pro mode Para resaltar la principal fortaleza del modo o1 pro (confiabilidad mejorada), utilizamos una configuración de evaluación más estricta: solo se considera que un modelo resuelve una pregunta si obtiene la respuesta correcta en cuatro de cuatro intentos («confiabilidad 4/4»), no solo en uno. Competencia de Matemáticas (AIME 2024) 37678001020304050607080901004/4 reliabilityo1-previewo1o1 pro mode Código de competencia (Codeforces) 26647501020304050607080901004/4 reliability percentile*o1-previewo1o1 pro mode Preguntas científicas de nivel de doctorado (GPQA Diamond) 58677401020304050607080901004/4 reliabilityo1-previewo1o1 pro mode Los usuarios Pro pueden acceder a esta funcionalidad seleccionando o1 pro modeen el selector de modelos y haciendo una pregunta directamente. Dado que las respuestas tardarán más en generarse, ChatGPT mostrará una barra de progreso y enviará una notificación en la aplicación si cambia a otra conversación.  Subvenciones de ChatGPT Pro Para ayudar a impulsar un progreso significativo en campos que benefician a la humanidad, estamos otorgando 10 subvenciones de ChatGPT Pro a investigadores médicos de instituciones líderes en los EE. UU., con planes de expandir las subvenciones Pro a otras regiones y áreas de investigación en el futuro. Las diez subvenciones iniciales se otorgarán a investigadores que incluyen:  ¿Qué sigue? Agregaremos funciones a Pro con el tiempo para desbloquear tareas que requieran más recursos informáticos. También seguiremos brindando muchas de estas nuevas funciones a nuestros otros suscriptores. Para obtener más información o suscribirse, visite ChatGPT ⁠(se abre en una nueva ventana). OpenAI News. Traducido al español

Leer más »

¿Qué aporta la realidad virtual a los alumnos con dislexia?

Diego Paniagua Martín, UNIR – Universidad Internacional de La Rioja Mateo, de 10 años, se pone sus gafas y se sumerge en un bosque animado que parece salido de un cuento de hadas. Cada árbol está “adornado” con palabras que forman oraciones simples y flotan en el aire, permitiendo a Mateo interactuar con ellas físicamente. Guiado por un personaje virtual, selecciona las palabras en el orden correcto para formar frases completas. Si comete un error, el personaje le da pistas suaves, sin juzgar, para que pueda corregirlo. Al completar la tarea, el bosque cobra vida: los árboles florecen, los animales cantan y los colores se vuelven más vibrantes, recompensando sus esfuerzos y reforzando la motivación. Lo que para Mateo parece un juego, en realidad es una intervención educativa: mientras selecciona palabras, mejora su conciencia fonológica y refuerza la memoria visual de patrones ortográficos. Este niño de nombre imaginado puede ser cualquiera de los escolares que, tras recibir un diagnóstico de dislexia, se frustran con las actividades de lectura en el aula. La dislexia y la realidad virtual La dislexia es uno de los trastornos de aprendizaje más frecuentes, con un amplio mosaico de manifestaciones, factores y causas (neurológicas, genéticas o sensoriales). Para quienes la sufren, las palabras parecen un rompecabezas caótico: las letras se mueven en su mente, las sílabas no encajan y los textos largos se convierten en un desafío abrumador. A pesar de los esfuerzos de maestros y familia, estos alumnos y alumnas a menudo desarrollan una fuerte aversión a la lectura, asociándola con el fracaso. Las intervenciones más comunes para ayudar a niños y niñas con dislexia son el entrenamiento fonológico y la instrucción multisensorial. Y hoy, la realidad virtual está emergiendo como una intervención innovadora con beneficios significativos. Las ventajas de los entornos y la retroalimentación Una investigación reciente ha descubierto sus ventajas para este tipo de intervenciones. Al ser una tecnología multifuncional e inmersiva, ofrece entornos de aprendizaje interactivo con seguridad y control. Gracias al alto nivel de interacción y retroalimentación, estas intervenciones pueden resultar más motivadoras y ayudar a mejorar dominios cognitivos y habilidades pedagógicas relacionadas con el procesamiento visual, el lenguaje, la memoria, el razonamiento, la resolución de problemas o las funciones ejecutivas. Mayor adherencia y mejor desempeño En el estudio mencionado, los participantes con dislexia manifestaron que trabajar en entornos de realidad virtual les resultaba más divertido y seguro y mostraron más adherencia a la intervención y preferencia por este tipo de ejercicios frente a los tradicionales. Otras investigaciones han demostrado que la ejecución y niveles de desempeño suelen ser menores cuando se evalúan sus habilidades con test de papel y lápiz que cuando se evalúan con realidad virtual debido a la influencia de variables como: De este modo se demuestra, por un lado, que estas nuevas intervenciones permiten a los niños interactuar con entornos que se ajustan más a sus intereses, como aventuras o retos, mientras refuerzan sus habilidades y no sus dificultades. Y, por otro lado, que los escenarios que ofrecen son más lúdicos y controlados, ofreciendo un entorno de bajo riesgo donde el fallo no tiene consecuencias negativas. Todo lo anterior reduce la ansiedad y permite a los niños tanto mejorar como aprender de manera más relajada y efectiva. Un ámbito por desarrollar El desarrollo de la realidad virtual en el contexto educativo en este ámbito es incipiente y está poco investigado. Aunque existen iniciativas que demuestran avances científicos y tecnológicos notables que van desde simulaciones especializadas hasta entornos virtuales, todavía son pocas las que cuentan con amplios tamaños muestrales, valoran los efectos a largo plazo o tienen una duración temporal más extensiva para validar los efectos en los niveles lectoescritores del alumnado con dislexia, una necesidad cada vez más vital para docentes, familia y centros educativos. Existen propuestas en la investigación científica que han incorporado esta tecnología como recurso de apoyo en la intervención para trabajar con niños y jóvenes con dislexia, demostrando no solo sus beneficios en cuanto al aumento de la participación, la accesibilidad y la concentración en la interacción, sino también su carácter facilitador de apoyo al profesorado y a las familias. https://www.youtube.com/embed/O0TplFLLj6s?wmode=transparent&start=0 Entre las mejores por, entre otras variables, su buena narrativa, mecánicas del juego, historia, ambientación y autonomía, se encuentran: Todas ellas representan un equilibrio muy apropiado de intereses y necesidades de este alumnado. Además, se pueden utilizar en dispositivos tradicionales como ordenadores, tabletas o teléfonos móviles sin que sea imprescindible el uso de gafas de realidad virtual. Realidad virtual y diagnóstico En lo que se refiere a la evaluación y el diagnóstico del trastorno, la mayoría de los estudios informan de resultados positivos de esta tecnología en la evaluación clínica, neurorrehabilitación cognitiva y psicología clínica. Sin embargo, cabe señalar que, aunque son pocos, también hay algunos estudios con resultados mixtos no concluyentes. En estos casos, es posible que se atribuyan a factores clínicos y de investigación como, por ejemplo, la edad, el uso de estrategias compensatorias o la falta de baterías de pruebas que, a menudo, escapan a un diagnóstico positivo. Elegir las herramientas adecuadas Contar con un recurso que evalúe en tiempo real el progreso y ajuste automáticamente las evaluaciones e intervenciones en función de las necesidades es una mejora de la calidad de vida de esta población. Para lograrlo hay que: La realidad virtual es un recurso valioso, pero el progreso debe evaluarse de manera integral, combinando los datos con observaciones cualitativas en el aula, para asegurar intervenciones efectivas y adaptadas a las necesidades de cada niño. Diego Paniagua Martín, Lingüista clínico | Experto en Competencia Lingüística y disCapacidad, UNIR – Universidad Internacional de La Rioja Este artículo fue publicado originalmente en The Conversation. Lea el original.

Leer más »
Scroll al inicio