El Portal de las Tecnologías para la Innovación

Categoría: Inteligencia Artificial News

OPPO Launches Updated Photography Awards for 2025, Super Every Moment with Enhanced Mobile Photography

Featuring the biggest prize pool and most diverse categories to date, the OPPO Photography Awards 2025 celebrate the talent behind every shot. SHENZHEN—OPPO has recently officially launched its annual mobile photography competition, the OPPO Photography Awards 2025. As a global platform celebrating distinctive visual storytelling, the competition aims to inspire OPPO users worldwide to capture and share the beauty of life using OPPO’s advanced imaging technology. Building on the momentum of previous editions, which drew over one million submissions from 81 countries and regions, this year’s Awards introduce an expanded prize structure and new entry categories, reaffirming its commitment to championing creativity and innovation in mobile photography. «At OPPO, our focus has always been on creating human-centered experiences by bringing emotional depth to our cutting-edge technology,» said Pete Lau, Senior Vice President and Chief Product Officer of OPPO. «With our new imaging technology brand, LUMO, and the new ‘Make Your Moment’ brand slogan, this year’s OPPO Photography Awards aim to showcase the best in story-driven visuals by empowering everyone to capture their super moments with OPPO.» Super Every Moment: Transforming the Ordinary into the Extraordinary With the theme «Super Every Moment,» the OPPO Photography Awards 2025 embrace the beauty in everyday life. The competition features eight entry categories spanning a wide range of storytelling perspectives: Snapshot, Youth, Live Photo, Connection, Portrait, Vibe, Photo Series, and Environment, encouraging creators to capture emotion, culture, and spontaneity in their own unique ways. Each category reflects OPPO’s belief that mobile photography is not only about technology, but about preserving authentic, emotional narratives that resonate with people around the world. OPPO’s advanced imaging technology makes it easier than ever to transform these everyday moments into super moments that shine with their natural brilliance. Recognizing Global Talent with Unprecedented Scope and Scale This year’s OPPO Photography Awards also feature bigger prizes and more ways to win, with a larger prize pool and a more diverse range of awards on offer. In addition to the prestigious Gold, Silver, and Bronze Awards, the 2025 edition introduces Jury’s Choice, Audience’s Choice, Regional Awards, and enhanced Youth recognition to further spotlight diverse talent. A distinguished judging panel of globally renowned photographers will lead this year’s evaluations, including Magnum Photos’ Alec Soth, Hasselblad Masters Tang Hui, Tina Signesdottir Hult, and Wang Jianjun, top Chinese fashion photographer Trunk Xu, and OPPO Senior Vice President and Chief Product Officer Pete Lau. OPPO Imaging: Unlocking Emotion Beyond the Lens OPPO is redefining mobile imaging by merging technical excellence with emotional nuance to transform technology into the spark behind every creation. At the heart of this evolution is OPPO’s pinnacle of mobile imaging capabilities, the LUMO Imaging System. It seamlessly integrates advanced hardware and computational photography to deliver rich tones, nuanced lighting, and cinematic bokeh—turning spontaneous snapshots into emotionally resonant stories. By blending cutting-edge technology with human-centered design, OPPO’s goal with LUMO is to offer an industry-leading mobile imaging experience, enabling users to capture not only how moments look but also how they feel, while delivering the very best in mobile portrait photography. Open Call for Entries Until November 20 OPPO invites mobile photographers around the world to seize this unique opportunity to capture their super moments, unleash their creativity, and discover the hidden beauty of everyday life through the lens of their OPPO phones. The OPPO Photography Awards 2025 are now open for submission until 24:00 UTC+8 on November 20, 2025. Entries can be submitted through the official OPPO LUMO IMAGE website. For more information, please visit the official competition website at https://lumo.oppo.com/en/. OPPO News

Leer más »

OPPO lanza los Premios de Fotografía actualizados para 2025: Super Every Moment con fotografía móvil mejorada

Con el mayor pozo de premios y las categorías más diversas hasta la fecha, los OPPO Photography Awards 2025 celebran el talento detrás de cada fotografía. SHENZHEN—OPPO ha lanzado recientemente de manera oficial su concurso anual de fotografía móvil, los OPPO Photography Awards 2025. Como plataforma global que celebra la narración visual distintiva, el concurso tiene como objetivo inspirar a los usuarios de OPPO en todo el mundo a capturar y compartir la belleza de la vida utilizando la tecnología de imágenes avanzada de OPPO. Basándose en el impulso de las ediciones anteriores, que atrajeron más de un millón de presentaciones de 81 países y regiones, los premios de este año introducen una estructura de premios ampliada y nuevas categorías de entrada, reafirmando su compromiso de defender la creatividad y la innovación en la fotografía móvil. «En OPPO, siempre nos hemos centrado en crear experiencias centradas en el ser humano, aportando profundidad emocional a nuestra tecnología de vanguardia», afirmó Pete Lau, vicepresidente sénior y director de producto de OPPO. «Con nuestra nueva marca de tecnología de imagen, LUMO, y el nuevo eslogan ‘Crea tu momento’, los Premios de Fotografía OPPO de este año buscan mostrar lo mejor en imágenes narrativas, animando a todos a capturar sus mejores momentos con OPPO». Súper Every Moment: Transformando lo ordinario en extraordinario Con el tema «Super Every Moment», los Premios de Fotografía OPPO 2025 se centran en la belleza de la vida cotidiana. El concurso incluye ocho categorías que abarcan una amplia gama de perspectivas narrativas: Instantánea, Juventud, Foto en Vivo, Conexión, Retrato, Vibra, Serie Fotográfica y Entorno, animando a los creadores a capturar la emoción, la cultura y la espontaneidad a su manera. Cada categoría refleja la convicción de OPPO de que la fotografía móvil no se trata solo de tecnología, sino de preservar narrativas auténticas y emotivas que conectan con personas de todo el mundo. La avanzada tecnología de imagen de OPPO facilita más que nunca transformar estos momentos cotidianos en momentos increíbles que brillan con su naturalidad. Reconociendo el talento global con un alcance y una escala sin precedentes Los Premios de Fotografía OPPO de este año también ofrecen premios más importantes y más formas de ganar, con una mayor bolsa de premios y una gama más diversa de premios. Además de los prestigiosos Premios de Oro, Plata y Bronce, la edición de 2025 introduce los Premios del Jurado, el Premio del Público, los Premios Regionales y un mayor reconocimiento a los Jóvenes para destacar aún más el talento diverso. Un distinguido panel de jueces compuesto por fotógrafos de renombre mundial dirigirá las evaluaciones de este año, entre ellos Alec Soth de Magnum Photos, los maestros de Hasselblad Tang Hui, Tina Signesdottir Hult y Wang Jianjun, el destacado fotógrafo de moda chino Trunk Xu y el vicepresidente sénior y director de productos de OPPO, Pete Lau. Imágenes OPPO: Desbloqueando emociones más allá de la lente OPPO está redefiniendo la imagen móvil al fusionar la excelencia técnica con matices emocionales para transformar la tecnología en la chispa detrás de cada creación. En el corazón de esta evolución se encuentra la cúspide de las capacidades de imagen móvil de OPPO, el Sistema de Imagen LUMO . Integra a la perfección hardware avanzado y fotografía computacional para ofrecer tonos ricos, iluminación con matices y un bokeh cinematográfico, convirtiendo instantáneas espontáneas en historias emotivas. Al combinar tecnología de vanguardia con un diseño centrado en el ser humano, el objetivo de OPPO con LUMO es ofrecer una experiencia de imagen móvil líder en la industria, permitiendo a los usuarios capturar no solo cómo se ven los momentos, sino también cómo se sienten, al tiempo que ofrecen lo mejor en fotografía de retratos móviles. Convocatoria abierta hasta el 20 de noviembre OPPO invita a los fotógrafos móviles de todo el mundo a aprovechar esta oportunidad única de capturar sus súper momentos, dar rienda suelta a su creatividad y descubrir la belleza oculta de la vida cotidiana a través de la lente de sus teléfonos OPPO. El plazo de inscripción para los Premios de Fotografía OPPO 2025 está abierto hasta las 24:00 UTC+8 del 20 de noviembre de 2025. Las inscripciones pueden enviarse a través del sitio web oficial de OPPO LUMO IMAGE. Para más información, visite el sitio web oficial del concurso: https://lumo.oppo.com/en/ . OPPO News. Traducido al español

Leer más »

El gobernador Healey impulsa el liderazgo estatal en inteligencia artificial con importantes inversiones en el Centro de IA de Massachusetts

El estado anuncia financiación para proyectos de IA en Boston y el oeste de Massachusetts, nuevo director para el Centro de IA de Massachusetts Hoy, durante la conferencia Think 2025 de IBM en Boston, la gobernadora Maura Healey anunció importantes novedades sobre la iniciativa estatal para impulsar el ecosistema de inteligencia artificial en Massachusetts a través del Centro de IA de Massachusetts. La gobernadora anunció una subvención estatal de 31 millones de dólares para ampliar el acceso a la computación sostenible de alto rendimiento, necesaria para la innovación en IA, la contratación del primer director del Centro de IA y la exploración de una nueva colaboración entre el Centro de IA, IBM (NYSE: IBM ) y Red Hat para crear un programa de aceleración de startups que permita a los emprendedores desarrollar tecnologías de IA y crear negocios de IA de vanguardia. El gobernador Healey lanzó el Massachusetts AI Hub , un esfuerzo innovador para hacer de Massachusetts un líder nacional en innovación de inteligencia artificial, en diciembre de 2024. Esta iniciativa pionera aprovecha los recursos autorizados en la Ley Mass Leads para apoyar iniciativas de IA e impulsar la colaboración de vanguardia entre el gobierno, la industria, las empresas emergentes y el mundo académico, buscar soluciones a los desafíos más críticos del mundo y desbloquear oportunidades económicas para empresas y residentes en todo el estado. “Agradecemos a IBM por elegir Massachusetts para su conferencia global Think 2025 y esperamos colaborar para fortalecer la rica red de inversores y organizaciones de Massachusetts, dedicadas a apoyar a emprendedores en IA”, declaró el gobernador Healey. “Además de las inversiones que estamos realizando en el Centro de IA de Massachusetts, estamos aprovechando la experiencia y los recursos a nuestra disposición para impulsar el sector, promoviendo el intercambio de conocimientos e invirtiendo en espacios de colaboración. Juntos, estamos posicionando a Massachusetts como líder mundial en IA aplicada y creando un ecosistema cohesionado, innovador, responsable y con un gran impacto en la economía de nuestro estado”. “El Centro de IA de Massachusetts animará a empresas y líderes de opinión a unirse para resolver los grandes desafíos que enfrenta nuestro mundo mediante la IA”, declaró la vicegobernadora Kim Driscoll. “Como tantos otros sectores de nuestra economía tecnológica y de innovación, la IA tiene el potencial de cambiar nuestra forma de vida, a la vez que crea nuevas y emocionantes colaboraciones. Es necesario que apoyemos este crecimiento mediante centros de aprendizaje que conecten a las personas”. Gracias a la subvención de 31 millones de dólares, la Administración Healey-Driscoll se asocia con el Centro de Computación de Alto Rendimiento Ecológico de Massachusetts (MGHPCC) para crear el entorno de Recursos de Computación de Inteligencia Artificial (AICR) en el MGHPCC, con el fin de proporcionar la capacidad de cómputo y datos necesaria para la innovación en IA. El AICR permitirá a las instituciones públicas y privadas de educación superior, a las startups y a las empresas del ecosistema de innovación, y a los residentes de Massachusetts, acceder a infraestructura vital de IA. El AICR también consolida una alianza entre el estado y las seis universidades miembros del MGHPCC: la Universidad de Boston, la Universidad de Harvard, el Instituto Tecnológico de Massachusetts (MIT), la Universidad de Northeastern, la Universidad de Massachusetts y la Universidad de Yale, para aplicar la innovación impulsada por la IA a sectores específicos de la economía. Durante los próximos cinco años, se espera que la alianza incluya inversiones conjuntas de la Administración Healey-Driscoll y las universidades del MGHPCC, que alcanzarán una inversión estimada de $120 millones con potencial de crecimiento. «Es fantástico ver estos nuevos pasos en el desarrollo del Centro de IA de Massachusetts», declaró John Goodhue, Director Ejecutivo del MGHPCC . «El MGHPCC y sus universidades miembro están entusiasmados de formar parte de este esfuerzo de la administración Healey-Driscoll para aunar la energía y los conocimientos del gobierno, la industria y el mundo académico y lograr un progreso a corto plazo, con una visión a largo plazo, hacia el liderazgo en el uso productivo y responsable de la IA». Hoy temprano, el gobernador Healey anunció que el Centro de IA de Massachusetts está buscando una alianza público-privada con IBM y Red Hat para establecer una incubadora para startups de IA con sede en Massachusetts. Esta alianza busca crear un espacio para apoyar a las startups y complementar el ecosistema en general. “La inteligencia artificial será un motor clave de oportunidades económicas durante la próxima década, y esperamos con interés dar vida al Centro de IA de Massachusetts”, declaró la Secretaria Interina de Desarrollo Económico, Ashley Stolba. “Los anuncios de hoy son un paso más para aprovechar la oportunidad única que ofrece nuestro estado para liderar la aplicación de la IA, a la vez que se crean nuevas empresas y empleos. Esta importante labor continuará, y esperamos colaborar con IBM, Red Hat, MGHPCC y el resto del ecosistema”. “En la primera reunión del Grupo de Trabajo Estratégico de IA del Gobernador, quedó claro que Massachusetts está bien posicionado para ser un líder en IA. El rico ecosistema tecnológico local tiene un historial de impulsar la innovación para el bien común”, declaró el Secretario de Servicios Tecnológicos y Seguridad, Jason Snyder, quien también copresidió el Grupo de Trabajo. “En el gobierno estatal de Massachusetts, lideramos la innovación con la experiencia digital de los residentes como nuestro norte. Las soluciones de IA que adoptan las agencias estatales tienen como objetivo mejorar la prestación de los servicios gubernamentales, a la vez que garantizan que cumplan con los estrictos estándares de adquisición de IA para una IA segura y responsable. Estos esfuerzos, combinados con el liderazgo del Centro de IA, mantendrán a Massachusetts a la vanguardia”. Además, Massachusetts Technology Collaborative anunció la contratación de Sabrina Mansur, líder con amplia experiencia en la industria de la IA, como directora ejecutiva inaugural del Centro de IA de Massachusetts, quien guiará al Centro en su misión de crear un ecosistema de IA ético y próspero en todo Massachusetts. Mansur fue directora de

Leer más »

Cómo hacer que los modelos de IA sean más confiables para entornos de alto riesgo

Un nuevo método ayuda a transmitir la incertidumbre con mayor precisión, lo que podría brindar a los investigadores y médicos clínicos mejor información para tomar decisiones. La ambigüedad en las imágenes médicas puede representar grandes desafíos para los médicos que intentan identificar enfermedades. Por ejemplo, en una radiografía de tórax, un derrame pleural (una acumulación anormal de líquido en los pulmones) puede parecerse mucho a los infiltrados pulmonares, que son acumulaciones de pus o sangre. Un modelo de inteligencia artificial podría asistir al médico en el análisis de rayos X, ayudándole a identificar detalles sutiles y optimizando el proceso de diagnóstico. Sin embargo, dado que una sola imagen puede contener tantas afecciones posibles, el médico probablemente preferiría considerar un conjunto de posibilidades, en lugar de evaluar solo una predicción de IA. Una forma prometedora de generar un conjunto de posibilidades, denominada clasificación conforme, es conveniente porque se puede implementar fácilmente sobre un modelo de aprendizaje automático existente. Sin embargo, puede generar conjuntos de un tamaño impráctico.  Los investigadores del MIT han desarrollado una mejora simple y efectiva que puede reducir el tamaño de los conjuntos de predicciones hasta en un 30 por ciento, haciendo al mismo tiempo que las predicciones sean más confiables. Disponer de un conjunto de predicciones más reducido puede ayudar al médico a identificar el diagnóstico correcto con mayor eficiencia, lo que podría mejorar y agilizar el tratamiento de los pacientes. Este método podría ser útil en diversas tareas de clasificación (por ejemplo, para identificar la especie de un animal en una imagen de un parque natural), ya que ofrece un conjunto de opciones más reducido pero más preciso. “Al tener menos clases a considerar, los conjuntos de predicciones son naturalmente más informativos, ya que se elige entre menos opciones. En cierto sentido, no se sacrifica nada en términos de precisión por algo más informativo”, afirma Divya Shanmugam, doctora en la promoción de 2024, posdoctora en Cornell Tech, quien realizó esta investigación mientras era estudiante de posgrado en el MIT. Shanmugam colabora en el artículo con Helen Lu (promoción de 2024); Swami Sankaranarayanan, exinvestigador posdoctoral del MIT y actual investigador en Lilia Biosciences; y el autor principal, John Guttag, profesor Dugald C. Jackson de Ciencias de la Computación e Ingeniería Eléctrica del MIT y miembro del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT (CSAIL). La investigación se presentará en la Conferencia sobre Visión por Computador y Reconocimiento de Patrones en junio. Garantías de predicción Los asistentes de IA implementados para tareas cruciales, como la clasificación de enfermedades en imágenes médicas, suelen estar diseñados para generar una puntuación de probabilidad junto con cada predicción, de modo que el usuario pueda evaluar la fiabilidad del modelo. Por ejemplo, un modelo podría predecir que existe un 20 % de probabilidad de que una imagen corresponda a un diagnóstico específico, como la pleuresía. Sin embargo, es difícil confiar en la confianza predicha de un modelo, ya que numerosas investigaciones previas han demostrado que estas probabilidades pueden ser inexactas. Con la clasificación conforme, la predicción del modelo se sustituye por un conjunto de los diagnósticos más probables, junto con la garantía de que el diagnóstico correcto se encuentra en algún punto del conjunto. Pero la incertidumbre inherente a las predicciones de la IA a menudo hace que el modelo genere conjuntos demasiado grandes para ser útiles. Por ejemplo, si un modelo clasifica un animal en una imagen como una de 10.000 especies potenciales, podría generar un conjunto de 200 predicciones para ofrecer una garantía sólida. “Son muchas clases las que hay que revisar para determinar cuál es la adecuada”, afirma Shanmugam. La técnica también puede ser poco confiable porque pequeños cambios en las entradas, como rotar levemente una imagen, pueden producir conjuntos de predicciones completamente diferentes. Para que la clasificación conforme sea más útil, los investigadores aplicaron una técnica desarrollada para mejorar la precisión de los modelos de visión por computadora llamada aumento del tiempo de prueba (TTA). TTA crea múltiples aumentos de una sola imagen en un conjunto de datos, tal vez recortándola, volteándola, acercándola, etc. Luego aplica un modelo de visión por computadora a cada versión de la misma imagen y agrega sus predicciones. De esta manera, se obtienen múltiples predicciones a partir de un solo ejemplo. Esta agregación de predicciones mejora la precisión y la robustez de las predicciones, explica Shanmugam. Maximizar la precisión Para aplicar el TTA, los investigadores presentan datos de imágenes etiquetadas utilizados en el proceso de clasificación conforme. Aprenden a agregar las mejoras de estos datos, ampliando automáticamente las imágenes para maximizar la precisión de las predicciones del modelo subyacente. Luego, ejecutan la clasificación conforme sobre las nuevas predicciones del modelo, transformadas mediante TTA. El clasificador conforme genera un conjunto más pequeño de predicciones probables para la misma garantía de confianza. “Combinar el aumento del tiempo de prueba con la predicción conforme es fácil de implementar, eficaz en la práctica y no requiere reentrenamiento del modelo”, afirma Shanmugam. En comparación con trabajos anteriores en predicción conforme en varios puntos de referencia de clasificación de imágenes estándar, su método aumentado con TTA redujo los tamaños de los conjuntos de predicción en los experimentos, del 10 al 30 por ciento. Es importante destacar que la técnica logra esta reducción en el tamaño del conjunto de predicciones manteniendo la garantía de probabilidad. Los investigadores también descubrieron que, aunque sacrifican algunos datos etiquetados que normalmente se utilizarían para el procedimiento de clasificación conforme, el TTA aumenta la precisión lo suficiente como para compensar el costo de perder esos datos. Esto plantea preguntas interesantes sobre cómo utilizamos los datos etiquetados después del entrenamiento del modelo. La asignación de datos etiquetados entre los diferentes pasos posteriores al entrenamiento es una dirección importante para el trabajo futuro, afirma Shanmugam. En el futuro, los investigadores buscan validar la eficacia de este enfoque en el contexto de modelos que clasifican texto en lugar de imágenes. Para mejorar aún más el trabajo, también están considerando maneras de reducir la cantidad de computación

Leer más »

Evolución de la estructura de OpenAI

La Junta Directiva de OpenAI tiene un plan actualizado para evolucionar la estructura de OpenAI. Tomamos la decisión de que la organización sin fines de lucro mantuviera el control de OpenAI tras escuchar a líderes cívicos y entablar un diálogo constructivo con las Fiscalías Generales de Delaware y California. Agradecemos a ambas fiscalías y esperamos continuar estas importantes conversaciones para asegurar que OpenAI pueda seguir cumpliendo eficazmente su misión de garantizar que la IA general beneficie a toda la humanidad. Sam escribió la carta a continuación a nuestros empleados y partes interesadas, explicando por qué estamos tan entusiasmados con esta nueva dirección. —Bret Taylor * * * Carta de Sam a los empleados. OpenAI no es una empresa normal y nunca lo será. Nuestra misión es garantizar que la inteligencia artificial general (AGI) beneficie a toda la humanidad. Cuando iniciamos OpenAI, no teníamos una idea clara de cómo íbamos a lograr nuestra misión. Empezamos mirándonos fijamente en la mesa de la cocina, preguntándonos qué investigación debíamos llevar a cabo. En aquel entonces, no pensábamos en productos ni en un modelo de negocio. No podíamos contemplar los beneficios directos de la IA para el asesoramiento médico, el aprendizaje, la productividad y mucho más, ni las necesidades de cientos de miles de millones de dólares en computación para entrenar modelos y atender a los usuarios. No sabíamos realmente cómo se construiría ni se utilizaría la IA general. Mucha gente podía imaginar un oráculo que les dijera a científicos y presidentes qué hacer, y aunque podría ser increíblemente peligroso, tal vez se les pudiera confiar a esas pocas personas. En sus inicios, muchas personas del entorno de OpenAI pensaban que la IA solo debía estar en manos de unas pocas personas de confianza que pudieran “manejarla”.  Ahora vemos una manera de que la IA general empodere directamente a todos, convirtiéndola en la herramienta más poderosa de la historia de la humanidad. Si logramos esto, creemos que las personas construirán cosas increíbles para sí mismas y seguirán impulsando la sociedad y la calidad de vida. Claro que no todo se usará para el bien, pero confiamos en la humanidad y creemos que las cosas buenas superarán con creces las malas. Estamos comprometidos con este camino hacia la IA democrática. Queremos poner herramientas increíbles al alcance de todos. Nos sorprende y nos complace lo que crean con nuestras herramientas y cuánto desean usarlas. Queremos abrir el código fuente de modelos muy eficaces. Queremos dar a nuestros usuarios una amplia libertad para usar nuestras herramientas dentro de amplios límites, incluso si no siempre compartimos el mismo marco moral, y permitirles tomar decisiones sobre el comportamiento de ChatGPT. Creemos que este es el mejor camino a seguir: la IA general debe permitir que toda la humanidad se beneficie mutuamente. Somos conscientes de que algunas personas tienen opiniones muy diferentes. Queremos construir un cerebro para el mundo y hacer que sea súper fácil para que la gente lo use para lo que quiera (sujeto a algunas restricciones; la libertad no debería afectar la libertad de otras personas, por ejemplo).  La gente está usando ChatGPT para aumentar su productividad como científicos , codificadores y mucho más .(se abre en una nueva ventana)Las personas usan ChatGPT para resolver problemas graves de salud y aprender más que nunca. También usan ChatGPT para obtener consejos sobre cómo manejar situaciones difíciles. Nos enorgullece ofrecer un servicio que beneficia tanto a tantas personas; es uno de los logros más directos de nuestra misión que podemos imaginar.  Pero quieren usarla mucho más; actualmente no podemos suministrar tanta IA como el mundo necesita, y tenemos que limitar el uso de nuestros sistemas y operarlos lentamente. A medida que los sistemas se vuelvan más capaces, querrán usarla aún más, para cosas aún más maravillosas.  No teníamos ni idea de que este sería el panorama mundial cuando inauguramos nuestro laboratorio de investigación hace casi una década. Pero ahora que vemos esta imagen, estamos entusiasmados. Es hora de que evolucionemos nuestra estructura. Hay tres cosas que queremos lograr: Tomamos la decisión de que la organización sin fines de lucro mantenga el control tras escuchar a los líderes cívicos y mantener conversaciones con las Fiscalías Generales de California y Delaware. Esperamos avanzar en los detalles de este plan en conversaciones continuas con ellos, Microsoft y nuestros nuevos comisionados para organizaciones sin fines de lucro. OpenAI se fundó como una organización sin fines de lucro, hoy es una organización sin fines de lucro que supervisa y controla a las organizaciones con fines de lucro, y en el futuro seguirá siendo una organización sin fines de lucro que supervisa y controla a las organizaciones con fines de lucro. Esto no cambiará. La LLC con fines de lucro de la organización sin fines de lucro se transformará en una Corporación de Beneficio Público (CBP) con la misma misión. Las CBP se han convertido en la estructura con fines de lucro estándar para otros laboratorios de IA general como Anthropic y X.ai, así como para muchas empresas con un propósito definido como Patagonia. Creemos que esto también tiene sentido para nosotros. En lugar de nuestra compleja estructura actual de ganancias limitadas —que tenía sentido cuando parecía que podría haber una iniciativa dominante de IAG, pero que no es así en un mundo con tantas grandes empresas de IAG—, estamos cambiando a una estructura de capital normal donde todos tienen acciones. Esto no es una venta, sino un cambio de estructura hacia algo más simple. La organización sin fines de lucro seguirá controlando el PBC y se convertirá en un importante accionista de este , con una cantidad financiada por asesores financieros independientes, lo que le otorgará recursos para apoyar programas que permitan que la IA beneficie a diversas comunidades, en consonancia con su misión. A medida que el PBC crezca, sus recursos crecerán, lo que le permitirá lograr aún más. Nos entusiasma recibir pronto recomendaciones de nuestra comisión de organizaciones sin fines de lucro sobre cómo podemos garantizar que la IA beneficie a todos, no solo a unos pocos. Sus ideas se centrarán en

Leer más »

Hybrid AI model crafts smooth, high-quality videos in seconds

The CausVid generative AI tool uses a diffusion model to teach an autoregressive (frame-by-frame) system to rapidly produce stable, high-resolution videos. What would a behind-the-scenes look at a video generated by an artificial intelligence model be like? You might think the process is similar to stop-motion animation, where many images are created and stitched together, but that’s not quite the case for “diffusion models” like OpenAl’s SORA and Google’s VEO 2. Instead of producing a video frame-by-frame (or “autoregressively”), these systems process the entire sequence at once. The resulting clip is often photorealistic, but the process is slow and doesn’t allow for on-the-fly changes.  Scientists from MIT’s Computer Science and Artificial Intelligence Laboratory (CSAIL) and Adobe Research have now developed a hybrid approach, called “CausVid,” to create videos in seconds. Much like a quick-witted student learning from a well-versed teacher, a full-sequence diffusion model trains an autoregressive system to swiftly predict the next frame while ensuring high quality and consistency. CausVid’s student model can then generate clips from a simple text prompt, turning a photo into a moving scene, extending a video, or altering its creations with new inputs mid-generation. This dynamic tool enables fast, interactive content creation, cutting a 50-step process into just a few actions. It can craft many imaginative and artistic scenes, such as a paper airplane morphing into a swan, woolly mammoths venturing through snow, or a child jumping in a puddle. Users can also make an initial prompt, like “generate a man crossing the street,” and then make follow-up inputs to add new elements to the scene, like “he writes in his notebook when he gets to the opposite sidewalk.” A video produced by CausVid illustrates its ability to create smooth, high-quality content. AI-generated animation courtesy of the researchers. The CSAIL researchers say that the model could be used for different video editing tasks, like helping viewers understand a livestream in a different language by generating a video that syncs with an audio translation. It could also help render new content in a video game or quickly produce training simulations to teach robots new tasks. Tianwei Yin SM ’25, PhD ’25, a recently graduated student in electrical engineering and computer science and CSAIL affiliate, attributes the model’s strength to its mixed approach. “CausVid combines a pre-trained diffusion-based model with autoregressive architecture that’s typically found in text generation models,” says Yin, co-lead author of a new paper about the tool. “This AI-powered teacher model can envision future steps to train a frame-by-frame system to avoid making rendering errors.” Yin’s co-lead author, Qiang Zhang, is a research scientist at xAI and a former CSAIL visiting researcher. They worked on the project with Adobe Research scientists Richard Zhang, Eli Shechtman, and Xun Huang, and two CSAIL principal investigators: MIT professors Bill Freeman and Frédo Durand. Caus(Vid) and effect Many autoregressive models can create a video that’s initially smooth, but the quality tends to drop off later in the sequence. A clip of a person running might seem lifelike at first, but their legs begin to flail in unnatural directions, indicating frame-to-frame inconsistencies (also called “error accumulation”). Error-prone video generation was common in prior causal approaches, which learned to predict frames one by one on their own. CausVid instead uses a high-powered diffusion model to teach a simpler system its general video expertise, enabling it to create smooth visuals, but much faster. Play video CausVid enables fast, interactive video creation, cutting a 50-step process into just a few actions.Video courtesy of the researchers. CausVid displayed its video-making aptitude when researchers tested its ability to make high-resolution, 10-second-long videos. It outperformed baselines like “OpenSORA” and “MovieGen,” working up to 100 times faster than its competition while producing the most stable, high-quality clips. Then, Yin and his colleagues tested CausVid’s ability to put out stable 30-second videos, where it also topped comparable models on quality and consistency. These results indicate that CausVid may eventually produce stable, hours-long videos, or even an indefinite duration. A subsequent study revealed that users preferred the videos generated by CausVid’s student model over its diffusion-based teacher. “The speed of the autoregressive model really makes a difference,” says Yin. “Its videos look just as good as the teacher’s ones, but with less time to produce, the trade-off is that its visuals are less diverse.” CausVid also excelled when tested on over 900 prompts using a text-to-video dataset, receiving the top overall score of 84.27. It boasted the best metrics in categories like imaging quality and realistic human actions, eclipsing state-of-the-art video generation models like “Vchitect” and “Gen-3.” While an efficient step forward in AI video generation, CausVid may soon be able to design visuals even faster — perhaps instantly — with a smaller causal architecture. Yin says that if the model is trained on domain-specific datasets, it will likely create higher-quality clips for robotics and gaming. Experts say that this hybrid system is a promising upgrade from diffusion models, which are currently bogged down by processing speeds. “[Diffusion models] are way slower than LLMs [large language models] or generative image models,” says Carnegie Mellon University Assistant Professor Jun-Yan Zhu, who was not involved in the paper. “This new work changes that, making video generation much more efficient. That means better streaming speed, more interactive applications, and lower carbon footprints.” The team’s work was supported, in part, by the Amazon Science Hub, the Gwangju Institute of Science and Technology, Adobe, Google, the U.S. Air Force Research Laboratory, and the U.S. Air Force Artificial Intelligence Accelerator. CausVid will be presented at the Conference on Computer Vision and Pattern Recognition in June. MIT News. A. S.

Leer más »

El modelo de IA híbrido crea videos fluidos y de alta calidad en segundos

La herramienta de inteligencia artificial generativa CausVid utiliza un modelo de difusión para enseñar a un sistema autorregresivo (cuadro por cuadro) a producir rápidamente videos estables y de alta resolución. ¿Cómo sería una mirada entre bastidores a un vídeo generado por un modelo de inteligencia artificial? Podrías pensar que el proceso es similar a la animación stop-motion, donde se crean y unen muchas imágenes, pero no es así con los «modelos de difusión» como SORA de OpenAl y VEO 2 de Google. En lugar de producir un video fotograma a fotograma (o «autorregresivamente»), estos sistemas procesan toda la secuencia a la vez. El clip resultante suele ser fotorrealista, pero el proceso es lento y no permite cambios sobre la marcha.  Científicos del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT y Adobe Research han desarrollado un enfoque híbrido, llamado «CausVid», para crear videos en segundos. Al igual que un estudiante ingenioso que aprende de un profesor experto, un modelo de difusión de secuencia completa entrena un sistema autorregresivo para predecir rápidamente el siguiente fotograma, garantizando al mismo tiempo alta calidad y consistencia. El modelo de estudiante de CausVid puede entonces generar clips a partir de una simple instrucción de texto, convirtiendo una foto en una escena en movimiento, extendiendo un video o alterando sus creaciones con nuevas entradas a mitad de generación. Esta herramienta dinámica permite la creación rápida e interactiva de contenido, reduciendo un proceso de 50 pasos a solo unas pocas acciones. Permite crear numerosas escenas imaginativas y artísticas, como un avión de papel transformándose en cisne, mamuts lanudos aventurándose en la nieve o un niño saltando en un charco. Los usuarios también pueden crear una indicación inicial, como «generar un hombre cruzando la calle», y luego añadir elementos adicionales a la escena, como «escribe en su cuaderno al llegar a la acera de enfrente». Un vídeo producido por CausVid ilustra su capacidad para crear contenido fluido y de alta calidad.Animación generada por IA cortesía de los investigadores. Los investigadores de CSAIL afirman que el modelo podría utilizarse para diversas tareas de edición de vídeo, como ayudar a los espectadores a comprender una transmisión en directo en otro idioma mediante la generación de un vídeo sincronizado con la traducción del audio. También podría ayudar a renderizar nuevo contenido en un videojuego o a producir rápidamente simulaciones de entrenamiento para enseñar nuevas tareas a los robots. Tianwei Yin SM ’25, PhD ’25, estudiante recién graduado de ingeniería eléctrica e informática y afiliado de CSAIL, atribuye la solidez del modelo a su enfoque mixto. “CausVid combina un modelo basado en difusión pre-entrenado con arquitectura autorregresiva que típicamente se encuentra en modelos de generación de texto”, dice Yin, co-autor principal de un nuevo  artículo sobre la herramienta. “Este modelo de profesor potenciado por IA puede prever pasos futuros para entrenar un sistema cuadro por cuadro para evitar cometer errores de renderizado”. El co-autor principal de Yin, Qiang Zhang, es un científico investigador en xAI y un ex investigador visitante de CSAIL. Trabajaron en el proyecto con los científicos de Adobe Research Richard Zhang, Eli Shechtman y Xun Huang, y dos investigadores principales de CSAIL: los profesores del MIT Bill Freeman y Frédo Durand. Caus(Vid) y efecto Muchos modelos autorregresivos pueden crear un video que es fluido inicialmente, pero la calidad tiende a caer más adelante en la secuencia. Un clip de una persona corriendo puede parecer realista al principio, pero sus piernas comienzan a agitarse en direcciones poco naturales, lo que indica inconsistencias cuadro por cuadro (también llamado “acumulación de errores”). La generación de video propensa a errores era común en los enfoques causales anteriores, que aprendían a predecir fotogramas uno por uno por sí solos. En cambio, CausVid utiliza un modelo de difusión de alta potencia para enseñar a un sistema más simple su experiencia general en video, lo que le permite crear imágenes fluidas, pero con mucha más rapidez. Reproducir vídeoCausVid permite la creación rápida de videos interactivos, simplificando un proceso de 50 pasos a solo unas pocas acciones.Video cortesía de los investigadores. CausVid demostró su capacidad para crear videos cuando los investigadores probaron su capacidad para crear videos de alta resolución de 10 segundos. Superó a plataformas como OpenSORA y MovieGen , trabajando hasta 100 veces más rápido que la competencia y produciendo clips de la más alta calidad y estabilidad. Posteriormente, Yin y sus colegas probaron la capacidad de CausVid para generar videos estables de 30 segundos, donde también superó a modelos comparables en calidad y consistencia. Estos resultados indican que CausVid podría eventualmente producir videos estables de varias horas de duración, o incluso indefinidamente. Un estudio posterior reveló que los usuarios preferían los videos generados por el modelo de estudiantes de CausVid a su modelo de profesores basado en la difusión. “La velocidad del modelo autorregresivo realmente marca la diferencia”, afirma Yin. “Sus videos se ven igual de bien que los del profesor, pero al tener menos tiempo para producirlos, la desventaja es que sus elementos visuales son menos diversos”. CausVid también destacó en pruebas con más de 900 indicaciones utilizando un conjunto de datos de texto a video, obteniendo la máxima puntuación general de 84,27. Obtuvo las mejores métricas en categorías como calidad de imagen y acciones humanas realistas, eclipsando modelos de generación de video de vanguardia como » Vchitect » y » Gen-3 » . Si bien CausVid representa un avance eficiente en la generación de video con IA, pronto podrá diseñar imágenes aún más rápido, quizás al instante, con una arquitectura causal más pequeña. Yin afirma que si el modelo se entrena con conjuntos de datos específicos del dominio, probablemente creará clips de mayor calidad para robótica y videojuegos. Los expertos afirman que este sistema híbrido es una mejora prometedora respecto a los modelos de difusión, que actualmente se ven limitados por la velocidad de procesamiento. «[Los modelos de difusión] son ​​mucho más lentos que los modelos de lenguaje extenso (LLM) o los modelos de imágenes generativas», afirma el profesor adjunto de la Universidad Carnegie Mellon, Jun-Yan Zhu,

Leer más »

Breakthrough uses artificial intelligence to identify different brain cells in action

A decades-old challenge in neuroscience has been solved by harnessing artificial intelligence (AI) to identify the electrical signatures of different types of brain cells for the first time, as part of a study in mice led by researchers from UCL. Brains are made up of many different types of neurons (nerve cells in the brain), each of which are thought to play different roles in processing information. Scientists have long been able to use electrodes to record the activity of neurons by detecting the electrical ‘spikes’ that they generate while performing brain functions. Although recording spikes has proved invaluable for monitoring the activity of individual neurons deep in the brain, until now the method has been ‘blind’ to the type of neuron being recorded – making it impossible to identify how different neurons contribute to the brain’s overall operation. In a new study, published in Cell, the research team have overcome this problem by identifying the distinct ‘electrical signatures’ of different neuron types in the mouse brain, using brief pulses of blue light to trigger spikes in specific cell types (a method called optogenetics). They created a library of the different electrical signatures for each type of neuron, which then allowed them to train an AI algorithm that can automatically recognise five different types of neurons with 95% accuracy without further need for genetic tools. The algorithm was also validated on brain recording data from monkeys. The researchers say they have overcome a major hurdle in being able to use the technology to study neurological conditions such as epilepsy, but that there is still “a long way” to go before it can be used in practical applications. Dr Maxime Beau, co-first author of the study from the UCL Wolfson Institute for Biomedical Research, said: “For decades, neuroscientists have struggled with the fundamental problem of reliably identifying the many different types of neurons that are simultaneously active during behaviour. Our approach now enables us to identify neuron types with over 95% accuracy in mice and in monkeys. “This advance will enable researchers to record brain circuits as they perform complex behaviours such as movement. Like logic gates on a computer chip, neurons in the brain are elementary computing units that come in several types. Our method provides a tool to identify many of the brain’s logic gates in action at the same time. Before, it could only be done one at a time, and at much greater cost.» The authors say the fact that the algorithm can be applied across different species gives it huge potential for being expanded to other animals and, eventually, to humans. In the short term, the new technique means that, instead of requiring complex genetic engineering to study the brain, researchers could use any normal animal to study what different neurons do and how they interact with one another to generate behaviour. One of the ultimate aims is to be able to study neurological and neuropsychiatric disorders such as epilepsy, autism and dementia, many of which are thought to involve changes to the way different cell types in the brain interact. Professor Beverley Clark a senior author of the study from UCL Wolfson Institute for Biomedical Research, said: “Just as many different instruments in an orchestra contribute to the sound of a symphony, the brain relies on many distinct neuron types to create the complex behaviour that humans and other animals exhibit. Our work is analogous to learning the sound that each instrument makes and then teaching an algorithm to recognise the contribution of each of them to a symphony. “Being able to observe this ‘neural symphony’ of the brain in action has been a fundamental challenge in neuroscience for over 100 years, and we now have a method for reliably doing this. “Although the technology is a long way from being able to be used to study neurological conditions such as epilepsy, we’ve now overcome a major hurdle to reaching that goal. In fact, some recordings of living human brain activity have already been recorded in patients during surgery, and our technique could be used to study those recordings to better understand how our brains work, first in health and then in disease.” Improved understanding of how our brains work could pave the way for some ground-breaking advances in medical science, some of which are already on the horizon. Human brain-to-computer interfaces, or neural implants, are one such possibility. Ongoing research at the UCSF Weill Institute for Neurosciences, for example, has enabled a paralysed man to control a robotic arm using a neural implant for a record seven months. Like the current study, this work was also informed by studying the electrical patterns in the brains of animals and using AI to automatically recognise these patterns. The authors say the new technique to differentiate neuron types could help to improve neural implants by more accurately recording which types of cells are involved in particular actions, so that the implant can more easily recognise specific signals and generate the appropriate response. Key to this technology is understanding how our brains work when they’re healthy, so that any damage can be compensated for. If a person had a stroke and part of their brain was damaged, for example, you would need to understand how that bit worked before you could consider designing an implant to replicate that functionality. Professor Michael Häusser, a senior author of the study from UCL Division of Medicine and The University of Hong Kong, said: «This project came to life thanks to the convergence of three critical innovations: using molecular biology to successfully ‘tag’ different neuron types using light, developments in silicon probe recording technology, and of course the fast-paced improvements in deep learning. “Crucially, the synergy in our team was absolutely instrumental. The partner labs at UCL, Baylor, Duke and Bar Ilan University have all contributed critical pieces to the puzzle. Just like the brain, the whole is larger than the sum of its parts.» The database gathered by the team is freely

Leer más »

Breakthrough utiliza inteligencia artificial para identificar diferentes células cerebrales en acción

Un desafío de décadas en neurociencia se ha resuelto aprovechando la inteligencia artificial (IA) para identificar las firmas eléctricas de diferentes tipos de células cerebrales por primera vez, como parte de un estudio en ratones dirigido por investigadores de la UCL. Los cerebros están formados por muchos tipos diferentes de neuronas (células nerviosas en el cerebro), cada una de las cuales se cree que desempeña diferentes funciones en el procesamiento de la información. Los científicos han podido usar electrodos durante mucho tiempo para registrar la actividad de las neuronas al detectar los picos eléctricos ‘que generan mientras realizan funciones cerebrales. Aunque los picos de grabación han demostrado ser invaluables para monitorear la actividad de las neuronas individuales en las profundidades del cerebro, hasta ahora el método ha sido ‘blind’ para el tipo de neurona que se está grabando –, lo que hace imposible identificar cómo las diferentes neuronas contribuyen a la operación general del cerebro. En un nuevo estudio, publicado en Celular, el equipo de investigación ha superado este problema identificando las distintas ‘firmas eléctricas’ de diferentes tipos de neuronas en el cerebro del ratón, utilizando breves pulsos de luz azul para desencadenar picos en tipos de células específicas (un método llamado optogenética). Crearon una biblioteca de las diferentes firmas eléctricas para cada tipo de neurona, lo que les permitió entrenar un algoritmo de IA que puede reconocer automáticamente cinco tipos diferentes de neuronas con un 95% de precisión sin necesidad de herramientas genéticas. El algoritmo también se validó en datos de registro cerebral de monos. Los investigadores dicen que han superado un obstáculo importante para poder usar la tecnología para estudiar afecciones neurológicas como la epilepsia, pero que todavía hay “un largo camino que recorrer antes de que pueda usarse en aplicaciones prácticas. El Dr. Maxime Beau, coautor del estudio del Instituto Wolfson de Investigación Biomédica de la UCL, dijo: “Durante décadas, los neurocientíficos han luchado con el problema fundamental de identificar de manera confiable los diferentes tipos de neuronas que están simultáneamente activas durante el comportamiento. Nuestro enfoque ahora nos permite identificar tipos de neuronas con más del 95% de precisión en ratones y monos. “Este avance permitirá a los investigadores registrar circuitos cerebrales a medida que realizan comportamientos complejos como el movimiento. Al igual que las puertas lógicas en un chip de computadora, las neuronas en el cerebro son unidades informáticas elementales que vienen en varios tipos. Nuestro método proporciona una herramienta para identificar muchas de las puertas lógicas de cerebro en acción al mismo tiempo. Antes, solo se podía hacer uno a la vez, y a un costo mucho mayor.» Los autores dicen que el hecho de que el algoritmo se pueda aplicar en diferentes especies le da un gran potencial para expandirse a otros animales y, eventualmente, a los humanos. A corto plazo, la nueva técnica significa que, en lugar de requerir una ingeniería genética compleja para estudiar el cerebro, los investigadores podrían usar cualquier animal normal para estudiar qué hacen las diferentes neuronas y cómo interactúan entre sí para generar comportamiento. Uno de los objetivos finales es poder estudiar trastornos neurológicos y neuropsiquiátricos como la epilepsia, el autismo y la demencia, muchos de los cuales se cree que implican cambios en la forma en que interactúan los diferentes tipos de células en el cerebro. El profesor Beverley Clark, autor principal del estudio del Instituto Wolfson de Investigación Biomédica de la UCL, dijo: “Al igual que muchos instrumentos diferentes en una orquesta contribuyen al sonido de una sinfonía, el cerebro se basa en muchos tipos de neuronas distintas para crear el comportamiento complejo que exhiben los humanos y otros animales. Nuestro trabajo es análogo a aprender el sonido que hace cada instrumento y luego enseñar un algoritmo para reconocer la contribución de cada uno de ellos a una sinfonía. “Ser capaz de observar esta ‘sinfonía neural’ del cerebro en acción ha sido un desafío fundamental en neurociencia durante más de 100 años, y ahora tenemos un método para hacer esto de manera confiable. “Aunque la tecnología está muy lejos de poder usarse para estudiar afecciones neurológicas como la epilepsia, ahora hemos superado un obstáculo importante para alcanzar ese objetivo. De hecho, algunas grabaciones de la actividad cerebral humana viva ya se han registrado en pacientes durante la cirugía, y nuestra técnica podría usarse para estudiar esas grabaciones para comprender mejor cómo funcionan nuestros cerebros, primero en salud y luego en enfermedad Una mejor comprensión de cómo funcionan nuestros cerebros podría allanar el camino para algunos avances innovadores en la ciencia médica, algunos de los cuales ya están en el horizonte. Las interfaces humano cerebro-computadora, o implantes neuronales, son una de esas posibilidades. La investigación en curso en el Instituto Weill de Neurociencias de la UCSF, por ejemplo, ha permitido a un hombre paralizado controlar un brazo robótico utilizando un implante neural durante un récord de siete meses. Al igual que el estudio actual, este trabajo también fue informado mediante el estudio de los patrones eléctricos en el cerebro de los animales y el uso de IA para reconocer automáticamente estos patrones. Los autores dicen que la nueva técnica para diferenciar los tipos de neuronas podría ayudar a mejorar los implantes neuronales al registrar con mayor precisión qué tipos de células están involucradas en acciones particulares, de modo que el implante pueda reconocer más fácilmente señales específicas y generar la respuesta adecuada. La clave de esta tecnología es comprender cómo funcionan nuestros cerebros cuando están sanos, para que cualquier daño pueda ser compensado. Si una persona tuvo un derrame cerebral y parte de su cerebro se dañó, por ejemplo, tendría que entender cómo funcionó esa parte antes de poder considerar el diseño de un implante para replicar esa funcionalidad. El profesor Michael Häusser, autor principal del estudio de la División de Medicina de la UCL y la Universidad de Hong Kong, dijo: «Este proyecto cobró vida gracias a la convergencia de tres innovaciones críticas: el uso de la biología molecular para ‘tag’ diferentes tipos de neuronas con

Leer más »
Scroll al inicio