El Portal de las Tecnologías para la Innovación

Categoría: La Ética y la Inteligencia Artificial

Por qué su organización necesita abordar el sesgo y la equidad en la IA generativa

A pesar de su potencial para mejorar la eficiencia y mejorar los resultados comerciales, la IA generativa también plantea desafíos significativos para las empresas que deben enfrentarse para garantizar la equidad y la transparencia en su implementación. Como la IA generativa continúa infiltrándose e interrumpiendo todos los sectores empresariales, desde el servicio al cliente hasta la creación de contenido, están creciendo comprensiblemente las preocupaciones sobre sus riesgos potenciales, especialmente en torno al sesgo y la equidad. Porque, aunque esta tecnología puede desbloquear claramente las eficiencias y ofrecer beneficios comerciales, también hay una serie de desafíos potenciales que deben abordarse con respecto a la equidad y la transparencia antes de que pueda implementarse a escala. Entender el sesgo La conversación sobre el sesgo potencial en la IA comenzó mucho antes de la llegada de ChatGPT o la discusión de los principales medios de comunicación de Large Language Models (LLM). Durante el tiempo que ha habido algoritmos de IA, ha habido preocupación de que debido a las decisiones tomadas durante su entrenamiento, diseño y desarrollo, estos algoritmos podrían actuar con favoritismo o prejuicio. Para la IA generativa, este sesgo puede manifestarse de varias maneras: Datos de entrenamiento La calidad y cantidad de datos utilizados para entrenar un modelo de IA tendrá una influencia directa sobre su potencial para entregar resultados sesgados. Por ejemplo, si se entrena exclusivamente en fuentes de idioma inglés, se podría percibir que los resultados reflejan un sesgo occidental. O bien, si se formara un modelo sobre una muestra geográfica de datos mucho más amplia, pero cada texto de formación anterior a 2001, los resultados podrían parecer reforzar o preferir puntos de vista sociales o políticos obsoletos. Algoritmo diseño Los algoritmos en sí mismos pueden introducir sesgos si no están diseñados teniendo en cuenta la equidad. Por ejemplo, las elecciones realizadas con respecto a cómo sopesar diferentes tipos de datos de entrada pueden crear un desequilibrio que favorece ciertos resultados sobre otros, independientemente de los datos de entrenamiento. Bucles de retroalimentación La IA generativa se basa en los comentarios de los usuarios para juzgar, confirmar y mejorar sus resultados. Si los mecanismos de retroalimentación no se ponderan o prueban adecuadamente para determinar su equidad u objetividad, entonces pueden crear y reforzar las desigualdades en el modelo durante y después del desarrollo para que sus resultados estén sesgados. Cuestiones de transparencia La IA generativa es capaz de ofrecer resultados complejos y completos, pero muchos de los sistemas más populares son opacos en la medida en que no explican o no pueden explicar cómo llegaron a su respuesta o solución. Y esta falta de claridad y transparencia puede conducir a una falta de confianza y puede agravar los problemas relacionados con el sesgo y la equidad de varias maneras. Interpretabilidad Como muchos sistemas de IA son esencialmente cajas negras donde entra una pregunta y sale una respuesta, pero los cálculos para llegar a la respuesta están ocultos, hace que sea aún más difícil identificar si un modelo está sesgado y en qué sentido. Y si los usuarios pueden mirar debajo del capó, por así decirlo, será menos probable que confíen en él o en sus salidas. Responsabilidad Y, por supuesto, si no hay forma de entender el proceso de toma de decisiones, se hace difícil determinar dónde se encuentra el problema — en los datos de capacitación, el diseño del modelo, la entrada del usuario o la calibración inicial a través de mecanismos de retroalimentación. Sin saber quién o qué es responsable, es difícil desarrollar o establecer una estructura de gobierno para el uso de los sistemas dentro de una organización. Cuestionar la equidad Si bien se puede argumentar que la equidad y el sesgo son muy similares, la equidad se convierte en un problema distinto cuando GenaI se aplica dentro de un rol o campo específico. Por ejemplo: Moderación de contenido Cuando se utilizan para la moderación de contenido, las herramientas de IA generativas pueden censurar o silenciar desproporcionadamente ciertas opiniones o perspectivas simplemente porque los datos de capacitación no son representativos de la base completa de clientes o usuarios. Reclutamiento Si un modelo utilizado para la selección o selección de solicitantes está capacitado en datos históricos que reflejan el sesgo social histórico o la desigualdad, es probable que favorezca ciertos datos demográficos sobre otros y esto corre el riesgo de hacer que el proceso de reclutamiento sea injusto. Creatividad En las industrias creativas, el arte musical, el diseño y la literatura generados por o con el apoyo de GenaI pueden plantear preguntas sobre la autoría, la originalidad y la posible homogeneización de la creatividad. La mezcla de obras existentes puede conducir a corto plazo a reclamos de plagio o robo y, a largo plazo, reducir la diversidad de la producción creativa, afectando en última instancia la expresión artística y las narrativas culturales. 5 formas de superar los problemas de sesgo y equidad Una vez que las organizaciones son conscientes de los problemas y sus causas fundamentales, hay varias formas de mitigar los posibles sesgos, generar confianza, garantizar la equidad y obtener la compra necesaria para que las herramientas y soluciones generativas impulsadas por IA puedan ofrecer beneficios comerciales genuinos. 1. Datos diversificados Una de las mejores maneras de abordar el sesgo es mejorando o aumentando los datos de capacitación para que tengan una mayor amplitud y profundidad y sean más representativos y reflexivos del mundo y el contexto en el que se implementará la tecnología. Las organizaciones deben: 2. Diseño de algoritmo Las organizaciones pueden emplear técnicas específicas durante la fase de diseño del algoritmo para minimizar la introducción de sesgos. Estos incluyen: 3. Transparencia e interpretabilidad Mejorar la transparencia es crucial para generar confianza en los sistemas de IA. Las organizaciones pueden tomar los siguientes pasos: 4. Promover el desarrollo inclusivo y ético de la IA Los equipos que identifican casos de uso y desarrollan y prueban soluciones deben ser multidisciplinarios y representativos de la organización, en lugar de limitarse a los miembros del departamento de TI. Además de aumentar la capacidad

Leer más »

Métodos tempranos para estudiar el uso afectivo y el bienestar emocional en ChatGPT

Una colaboración de OpenAI y MIT Media Lab Research. Las personas usan chatbots de IA como ChatGPT de muchas maneras: hacer preguntas, despertar la creatividad, resolver problemas e incluso para interacciones personales. Este tipo de herramientas pueden mejorar la vida diaria, pero a medida que se usan más ampliamente, surge una pregunta importante que enfrenta cualquier nueva tecnología: ¿Cómo afectan las interacciones con los chatbots de IA al bienestar social y emocional de las personas?  ChatGPT no está diseñado para reemplazar o imitar las relaciones humanas, pero las personas pueden optar por usarlo de esa manera dado su estilo de conversación y capacidades de expansión. Comprender las diferentes formas en que las personas interactúan con los modelos puede ayudar a guiar el desarrollo de la plataforma para facilitar interacciones seguras y saludables. Para explorar esto, nosotros (investigadores en el MIT Media Lab y OpenAI) realizamos una serie de estudios para comprender cómo el uso de la IA implica un compromiso emocional—lo que llamamos uso afectivo—puede afectar el bienestar de users’.  Nuestros hallazgos muestran que ambos modelo y usuario los comportamientos pueden influir en los resultados sociales y emocionales. Los efectos de la IA varían según la forma en que las personas eligen usar el modelo y sus circunstancias personales. Esta investigación proporciona un punto de partida para estudios adicionales que pueden aumentar la transparencia y fomentar el uso responsable y el desarrollo de plataformas de IA en toda la industria. Nuestro enfoque Queremos entender cómo las personas usan modelos como ChatGPT, y cómo estos modelos a su vez pueden afectarlos. Para comenzar a responder a estas preguntas de investigación, realizamos dos estudios paralelos1 con diferentes enfoques: un estudio observacional para analizar patrones de uso en la plataforma del mundo real y un estudio intervencionista controlado para comprender los impactos en los usuarios. Estudio 1: El equipo de OpenAI realizó un análisis automatizado a gran escala de casi 40 millones de interacciones de ChatGPT sin participación humana para garantizar la privacidad del usuario2. El estudio combinó este análisis con encuestas de usuarios específicas, lo que nos permitió obtener información sobre el uso en el mundo real, correlacionando el sentimiento autoinformado de users’ con ChatGPT con los atributos de las conversaciones de los usuarios, para ayudar a comprender mejor los patrones de uso afectivo. Estudio 2: Además, el equipo del MIT Media Lab realizó una Prueba Controlada Aleatoria (ECA) con casi 1,000 participantes que usaron ChatGPT durante cuatro semanas. Esto Aprobado por IRB(se abre en una ventana nueva), estudio controlado pre-registrado(se abre en una ventana nueva)fue diseñado para identificar ideas causales sobre cómo las características específicas de la plataforma (como la personalidad y la modalidad del modelo) y los tipos de uso podrían afectar a los estados psicosociales autoinformados de los usuarios, centrándose en la soledad, las interacciones sociales con personas reales, la dependencia emocional del chatbot de IA y el uso problemático de la IA. Modalidad “Hey ChatGPT, ¡obtuve ese trabajo que solicité!” Voz atractiva Ember Sol Voz neutral Ember Sol Texto ¡Felicitaciones! ¡Eso es una noticia fantástica! ¿Cómo te sientes al comenzar el nuevo trabajo? Tarea Ejemplos de indicaciones de conversación diarias proporcionadas a los usuarios Conversaciones personales Ayúdame a reflexionar sobre lo que estoy más agradecido en mi vida. Conversaciones no personales Discuta si el trabajo remoto mejora o reduce la productividad general de las empresas. Conversaciones abiertas N/A Lo que encontramos Al desarrollar estos dos estudios, buscamos explorar temas sobre cómo las personas usan modelos como ChatGPT para el compromiso social y emocional, y cómo esto afecta su bienestar autoinformado. Nuestros hallazgos incluyen: Estos estudios representan un primer paso crítico para comprender el impacto de los modelos avanzados de IA en la experiencia y el bienestar humanos. Aconsejamos no generalizar los resultados porque hacerlo puede oscurecer los hallazgos matizados que resaltan las interacciones no uniformes y complejas entre las personas y los sistemas de IA. Esperamos que nuestros hallazgos alienten a los investigadores tanto de la industria como de la academia a aplicar las metodologías presentadas aquí a otros dominios de la interacción humano-IA. Conclusión Estamos enfocados en construir IA que maximice el beneficio del usuario y minimice los daños potenciales, especialmente en torno al bienestar y la dependencia excesiva. Llevamos a cabo este trabajo para mantenernos a la vanguardia de los desafíos emergentes, tanto para OpenAI como para la industria en general. También nuestro objetivo es establecer expectativas públicas claras para nuestros modelos. Esto incluye actualizar nuestro Modelo Spec(se abre en una ventana nueva)para proporcionar una mayor transparencia en los comportamientos, capacidades y limitaciones previstos por los ChatGPT. Nuestro objetivo es liderar la determinación de estándares de IA responsables, promover la transparencia y garantizar que nuestra innovación priorice el bienestar del usuario. Lea más en nuestro informe completo aquí(se abre en una ventana nueva). También puede leer el informe de MIT Media Labs en nuestro RCT aquí(se abre en una ventana nueva). Limitaciones Nuestros estudios tienen varias limitaciones importantes a tener en cuenta al interpretar los hallazgos. Los hallazgos aún no han sido revisados por pares por la comunidad científica, lo que significa que deben interpretarse con cautela. Además, los estudios se realizaron en función del uso de ChatGPT y en la plataforma ChatGPT, y los usuarios de otras plataformas de chatbot de IA pueden tener diferentes experiencias y resultados. Aunque encontramos relaciones significativas entre las variables, no todos los hallazgos demuestran una causa y un efecto claros, por lo que se necesita investigación adicional sobre cómo y por qué el uso de IA afecta a los usuarios para guiar las decisiones de políticas y productos. Nuestro estudio incluyó encuestas de usuarios y los datos autoinformados podrían no capturar con precisión los sentimientos o experiencias reales de los usuarios’. Además, observar cambios significativos en el comportamiento y el bienestar puede requerir períodos más largos de estudio.Usamos clasificadores para razonar sobre señales afectivas en nuestro análisis automatizado; sin embargo, estos son imperfectos y pueden perder matices importantes. Finalmente, nuestra investigación se centró exclusivamente en las conversaciones en inglés con los participantes de los Estados Unidos, destacando la necesidad

Leer más »

“Un futuro de IA que honra la dignidad de todos”

A medida que se desarrolla la inteligencia artificial, debemos hacer preguntas vitales sobre nosotros mismos y nuestra sociedad, sostiene Ben Vinson III en la Conferencia Compton 2025. La amplia charla planteó una serie de preguntas de búsqueda sobre nuestros ideales y prácticas humanas, y se ancló en la opinión de que, como dijo Vinson, “El progreso tecnológico debe servir a la humanidad, y no al revés.” En el curso de sus comentarios, Vinson ofreció pensamientos sobre nuestra autoconcepción como seres racionales; los efectos de las revoluciones tecnológicas en las tareas humanas, los trabajos y la sociedad; y los valores y la ética que queremos que nuestras vidas y nuestro tejido social reflejen.    “Filósofos como Cicerón argumentan que la buena vida se centra en la búsqueda de la virtud y la sabiduría,” dijo Vinson. “¿Puede la IA mejorar nuestra búsqueda de la virtud y la sabiduría? ¿Se arriesga a automatizar aspectos críticos de la reflexión humana? ¿Un mundo que cada vez más se remite a la IA para la toma de decisiones y la creación artística, e incluso la deliberación ética, refleja eso una sociedad más avanzada? O señala una rendición silenciosa de la agencia humana?” Charla de Vinsonins, titulada “AI in an Age After Reason: A Discourse on Fundamental Human Questions,” fue entregada a una gran audiencia en el Centro de Conferencias Samberg de MIT. También sugirió que las universidades pueden servir como una “brújula intelectual” en el desarrollo de la IA, aportando realismo y especificidad al tema y “separando los riesgos reales de los temores especulativos, asegurando que la IA no sea demonizada ni ciegamente abrazada sino desarrollada con sabiduría, con supervisión ética y con adaptación social La serie de conferencias Compton se introdujo en 1957, en honor a Karl Taylor Compton, quien se desempeñó como noveno presidente del MIT, de 1930 a 1948, y como presidente de la Corporación MIT de 1948 a 1954. En comentarios introductorios, la presidenta del MIT, Sally A. Kornbluth observó que Compton “ayudó al Instituto a transformarse de una escuela técnica sobresaliente para capacitar a ingenieros prácticos a una universidad global realmente excelente. Un físico de renombre, el presidente Compton trajo un nuevo enfoque en la investigación científica fundamental, e hizo de la ciencia un socio igualitario con la ingeniería en MIT.” Más allá de eso, agregó Kornbluth, “a través de la guerra, ayudó a inventar una asociación entre el gobierno federal y las universidades de investigación de America.” Al presentar Vinson, Kornbluth lo describió como un líder académico que proyecta una “maravillosa sensación de energía, positividad y movimiento hacia adelante Vinson se convirtió en presidente de la Universidad de Howard en septiembre de 2023, habiendo servido anteriormente como rector y vicepresidente ejecutivo de la Universidad Case Western Reserve; decano de la Facultad de Artes y Ciencias de la Universidad de George Washington; y vicedecano de centros, estudios interdisciplinarios y educación de posgrado en la Universidad Johns Hopkins. Historiador que ha estudiado la diáspora africana en América Latina, Vinson es miembro de la Academia Americana de las Artes y las Ciencias y ex presidente de la Asociación Histórica Americana. Usando la historia como guía, Vinson sugirió que la IA tiene potencial para influir sustancialmente en la sociedad y la economía, incluso si no puede entregar completamente todos los avances que se imagina que traerá. “Sirve como una prueba de Rorschach para las esperanzas y ansiedades más profundas de la sociedad,” Vinson dijo de AI. “Optimistas, lo ven como una revolución de la productividad y un salto en la evolución humana, mientras que los pesimistas advierten sobre la vigilancia masiva, el sesgo, el desplazamiento laboral e incluso el riesgo existencial. La realidad, como sugiere la historia, probablemente caerá en algún punto intermedio. La IA probablemente evolucionará a través de un ciclo de expectativas infladas, desilusión y eventual inspiración pragmática Aún así, Vinson sugirió que había diferencias sustanciales entre la IA y algunos de nuestros saltos tecnológicos anteriores — la revolución industrial, la revolución eléctrica y la revolución digital, entre otros. “A diferencia de las tecnologías anteriores que han extendido el trabajo humano, nuevamente, la IA se dirige a la cognición, la creatividad, la toma de decisiones e incluso la inteligencia emocional, dijo ” Vinson. En todos los casos, dijo Vinson, la gente debería ser activa al discutir los profundos efectos que el cambio tecnológico puede tener en la sociedad: “AI no se trata solo de progreso tecnológico, se trata de poder, se trata de justicia y la esencia misma de lo que significa ser humano En algunas ocasiones, los comentarios de Vinsonins se remontan al tema de la educación y el impacto de la IA. Howard, uno de los principales colegios y universidades históricamente negros de la nación, ha logrado recientemente una designación R1 como universidad con un nivel muy alto de actividad de investigación. Al mismo tiempo, tiene programas prósperos en humanidades y ciencias sociales que dependen de la cognición y la investigación individual. Pero supongamos, comentó Vinson, que la IA finalmente termina desplazando una parte de la erudición humanista. “¿Un mundo con menos humanidades realmente representa el progreso humano?” preguntó. En total, Vinson propuso que, a medida que avanza la IA, tenemos la responsabilidad de involucrarnos con los avances y el potencial del campo, teniendo en cuenta los valores humanos cotidianos. “Permisos guían al mundo a través de esta era transformadora con más sabiduría, con previsión y con una dedicación inquebrantable al bien común, ” Vinson dijo. “Este no es solo un momento tecnológico. Es un momento que requiere una forma de coraje intelectual e imaginación moral. Juntos, podemos dar forma a un futuro de IA que honre la dignidad de todos y, al mismo tiempo, avance los ideales de la humanidad misma. MIT News. P. D. Traducido al español

Leer más »

Respuesta de Dell Technologies al Plan de Acción de IA de los Estados Unidos

El 12 de marzo de 2025, Dell Technologies presentó su respuesta a la Solicitud de Información del Plan de Acción de IA de EE. John Roese, Director Global de Tecnología y Director de IA de Dell Technologies, proporcionó detalles sobre la respuesta, incluido el marco de tres pilares de la compañía,—invertir en infraestructura de IA, fomentar la innovación a través de la colaboración público-privada y la evolución de las políticas de confianza y resiliencia—para asegurar el liderazgo de America en IA y construir un ecosistema listo para el futuro. Puedes ver la publicación completa aquí. El presidente y CEO de Dell Technologies, Michael Dell, estuvo en Washington, DC esta semana y compartió cómo ahora es el momento para que los gobiernos aceleren la adopción de la IA a través de la colaboración del sector público y privado. Al asociarse con líderes de la industria de IA como Dell, las agencias federales pueden aprovechar con confianza la adopción de la tecnología de IA, lo que hace que la adopción sea no solo posible, sino también impactante. Puedes leer su perspectiva completa aquí. Dell Technologies News. Traducido al español

Leer más »

Nuevo libro explora cómo las relaciones dan forma al aprendizaje en la era de la IA

En su libro inaugural, la Directora Ejecutiva de Stanford Accelerator for Learning, Isabelle Hau, examina por qué las relaciones están en crisis en nuestra sociedad infundida de tecnología – y qué se puede hacer al respecto. Cuando piensas en tu maestro favorito, probablemente no recuerdes qué calificaciones te dieron – recuerdas cómo te hicieron sentir. Tal vez te entusiasmaron con un libro o un experimento científico, te mostraron que te preocupabas durante un momento difícil o te dieron un consejo que se quedó. Un nuevo libro de Isabelle Hau, directora ejecutiva de Stanford Accelerator for Learning, explora la ciencia detrás de por qué las relaciones son clave para el aprendizaje y el desarrollo, desde los primeros años hasta la edad adulta. En Amor por Aprender: El Poder Transformativo del Cuidado y la Conexión en la Educación TempranaHau explica por qué las relaciones están en crisis en nuestra sociedad individualista e infundida por la tecnología, y qué se puede hacer al respecto. Hablamos con Hau sobre la importancia de nutrir, amar las relaciones y cómo los temas de las librerías se conectan con el trabajo del Acelerador. ¿Cuáles son las tres principales conclusiones que espera que los lectores obtengan del libro? La primera conclusión clave es que las relaciones – conectándose con otros de manera positiva y saludable – realmente importan. La mayoría de los padres y educadores saben intuitivamente que las relaciones de crianza son importantes. Lo que quizás no sepan es que las relaciones impulsan el desarrollo del cerebro y los resultados académicos y emocionales sociales posteriores en los niños. Investigación ha demostrado que los niños que experimentan relaciones de crianza tienden a tener un hipocampo más grande, una región del cerebro crítica para la memoria, el aprendizaje y la regulación emocional. Las relaciones – o la ausencia de ellas – dan forma a la capacidad de un niño para aprender, conectarse y prosperar de por vida. La segunda conclusión es que nuestras sociedades están construidas para que nuestros círculos de relaciones se contraigan. En 2020, por ejemplo 44 Por ciento de los jóvenes de secundariainformó que no tiene una fuente de relaciones de apoyo – adultos o compañeros, una reducción a la mitad respecto a una década antes. Tenemos familias que son más pequeñas; tenemos menos juego porque nos enfocamos más en los logros académicos y la preparación para la universidad; y ese enfoque está comenzando en grupos de edad más tempranos, lo que lleva a menos amistades. Entonces tenemos tecnología en nuestras vidas, que puede ser una fuerza para el bien en términos de aumentar nuestros círculos de relaciones, o ser lo contrario, aislándonos aún más. A medida que la inteligencia artificial da forma cada vez más a la educación y la interacción humana, es esencial priorizar la inteligencia relacional para que la IA mejore, en lugar de reemplazar, los profundos lazos humanos que son fundamentales para el bienestar y el aprendizaje. Una tercera gran conclusión sería más esperanzadora, que hay muchas tendencias positivas que están en marcha para cambiar esos paradigmas, ya sea que estén sucediendo dentro de las escuelas o en nuestras comunidades. Están surgiendo modelos escolares innovadores, nuevas políticas y herramientas tecnológicas relacionales, todas enfocadas en aumentar las relaciones. Los Estados están adoptando políticas sobre el juego y los modelos de escuelas comunitarias. Hay mucha inspiración de la que podemos sacar. Su libro destaca la importancia del amor y las relaciones en el desarrollo infantil. Al mismo tiempo, los puntajes de lectura y matemáticas han bajado. ¿Ves una tensión entre centrarse en las relaciones y centrarse en lo académico?  ¡Hay cero tensión! En realidad, es una falsa dicotomía en nuestra comprensión de la inteligencia, donde pensamos que “soft” y “hard” habilidades son mutuamente excluyentes. Necesitamos relaciones para que nuestros cerebros se desarrollen y para que aprendamos. Esos conceptos no son mutuamente excluyentes; en realidad se están conduciendo entre sí. Para que los niños puedan desempeñarse en matemáticas y lectura, aprenden mejor si están seguros y si sienten que están nutridos. Incluso hay investigación mostrar que un niño, al ver Sesame Street, aprende más si un adulto está presente. Reciente investigación de Patricia Kuhl en la Universidad de Washington también sugiere que los bebés que están en presencia de otro bebé aprendan más y vocalicen más. Y cuanto mayor es el número de otros bebés a los que está expuesto un bebé, ¡más aprenden! Nuestros cerebros son sociales y aprendemos socialmente. Has citado mucha investigación. ¿Puede comentar cómo la investigación ayudó a guiar sus conclusiones?  El libro está muy investigado porque quería asegurarme de que lo que estaba observando en mi trabajo estuviera fundamentado en la investigación. Además, quería asegurarme de que el libro elevara toda la investigación fenomenal que está sucediendo desde múltiples áreas de la ciencia, incluida la neurociencia, la neurobiología y la ciencia del aprendizaje, que convergen en la importancia de las relaciones amorosas en el aprendizaje. Estaba más interesado en la última ciencia de vanguardia. Tengo una sección completa, por ejemplo, sobre el concepto de sincronía neuronal, cuando la actividad cerebral de varias personas se correlaciona con el tiempo. Nuestro fenomenal colega en la Stanford Graduate School of Education, Bruce McCandliss, un afiliado de la facultad de Accelerator, está estudiando esto ahora mismo en Escuela Synapse, una escuela TK-8 en Menlo Park, California. Hay otros colegas que estudian esto en animales y en humanos, mostrando cómo aprendemos a través de estar en grupos y a través de la sincronía cerebral con otros, lo que creo que es un área realmente interesante de la neurociencia. ¿Cómo informó su trabajo en el Acelerador la escritura del libro? En el libro, hablo de una serie de ejemplos que forman parte del Acelerador de Stanford para el Aprendizaje. Por ejemplo, hago referencia al Proyecto de Vidrio Autismodirigido por los afiliados de la facultad Dennis Wall y Nick Haber y Filmar Interacciones para Fomentar el Desarrollo (FIND), dirigido por Phil Fisher, director de la facultad del Centro de Stanford sobre la Primera Infancia, una iniciativa del Acelerador. Ambos utilizan la tecnología para mejorar las conexiones humanas. También

Leer más »

Construyendo IA para Todos: Por Qué la Inclusión es Crítica en la Forma de la IA Ética

La IA tiene el potencial de resolver los desafíos más apremiantes del mundo, pero solo si refleja la diversidad de la La IA tiene el potencial de resolver los desafíos más apremiantes del mundo, pero solo si refleja la diversidad de la sociedad a la que busca servir. Como un espejo para la humanidad, esta tecnología puede amplificar los sesgos existentes o ayudar a desmantelarlos. La diferencia radica en cómo se forma y quién lo está dando forma. Este es el desafío que impulsa la iniciativa Mujeres y IA de Lenovoovo. Marine Rabeyrin, directora del grupo, cree que acelerar la acción sobre el desarrollo inclusivo de la IA no es solo un desafío tecnológico, es social. “El sesgo de género afecta a la mitad de la población, pero nunca ha sido fundamental para la conversación sobre las posibles preocupaciones de la IA,”, dice. “A medida que avanza la tecnología, tenemos una poderosa oportunidad; no solo para abordar los riesgos, sino para ‘desbias’ los sistemas que dan forma a nuestro mundo, desde conjuntos de datos hasta modelos de toma de decisiones. Al actuar ahora, podemos garantizar que la IA impulse el progreso, no los prejuicios.” Mientras celebramos el Día Internacional de la Mujer bajo el tema Acelerar la Acción, la urgencia se ilustra con un número simple. Las mujeres representan solo el 22% de la fuerza laboral mundial de IA – un claro recordatorio de por qué el cambio puede esperar. Amplificando la Lucha Contra el Bias en la IA Desde informes de noticias sobre algoritmos de reclutamiento que favorecen a los hombres hasta evaluaciones de crédito que penalizan a las mujeres, los sistemas de IA sesgados representan un verdadero desafío para la inclusión si no se controlan. El Liga de la Justicia Algorítmica (AJL), dirigido por el Dr. Joy Buolamwini, está combatiendo estos temas, con iniciativas como la , que anima a las empresas a hacer un compromiso público para limitar el abuso de la tecnología de reconocimiento facial. Esto es después de que la investigación de AJLls reveló una tasa de error del 34.7% para el reconocimiento facial en mujeres de piel oscura en comparación con el 0.8% para hombres de piel clara. En una línea similar, el Dr. Timnit Gebru, a través del Instituto de Investigación de IA Distribuida (DAIR), ha demostrado cómo los grandes modelos lingüísticos marginan a las comunidades subrepresentadas y está pidiendo una mayor transparencia en el desarrollo de la IA. Marine Rabeyrin, quien encabezó la implementación de la promesa de Cercle InterLls Women & AI, reflexiona sobre el progreso de la compañía hacia prácticas de IA más inclusivas. Desde que firmó la promesa en 2021, Lenovo ha logrado avances significativos. Inicialmente centrado en la gobernanza, se construyó un marco sólido con el establecimiento de un Comité de IA Responsable de Lenovo y el nombramiento de un Director de Seguridad e IA, Doug Fisher. “Hoy, con el apoyo de la Oficina de Diversidad de Productos de Lenovo, cada solución de IA se somete a una evaluación para el cumplimiento del sesgo ético y de género, agrega Marine. Elevar la Conciencia e Invertir en el Futuro Construir un futuro donde la IA sirva a todos requiere tanto cambios sistémicos como esfuerzos de base. Más allá del fortalecimiento de la gobernanza y la rendición de cuentas, la expansión de la cartera de talento femenino es crucial para garantizar que la tecnología refleje las necesidades de todas las comunidades. Sin una variedad de perspectivas en su desarrollo, la IA corre el riesgo de perpetuar el sesgo social. Al aumentar la participación femenina, podemos garantizar que estos sistemas sirvan mejor a todos los grupos demográficos, promoviendo un futuro más sostenible. Al asociarse con Impact AI, Cercle InterL presentó un Kit gratuito de Concientización sobre Género en IA para universidades en 2024, que ofrece un curso de tres horas, patrocinado en inglés por Lenovo, para crear conciencia sobre el tema. Marine enfatiza la importancia de la visibilidad y la tutoría. “las carreras de IA no son solo para científicos de datos,”, dice ella. “Mostrar los diversos roles disponibles en el sector ayuda a las mujeres a encontrar su lugar en STEM.” La Fundación Lenovo apoya aún más programas como STEMETTES en el Reino Unido y Becomtech en Francia, ayudando a aumentar la participación de las mujeres en las carreras de STEM. Al mostrar oportunidades en el campo y conectar a las mujeres jóvenes con modelos a seguir, estas iniciativas empoderan a la próxima generación y, en última instancia, promueven una fuerza laboral más diversa. Acelerando la Acción Juntos Marine sigue siendo optimista sobre el potencial de IA, enfatizando que los rápidos avances vienen con oportunidades para dar forma a su impacto. “la innovación de IA se está acelerando, pero también lo es nuestra comprensión de su impacto,”, dice. “Cuanto más descubramos su potencial, mejor podremos darle forma, refinarlo y dirigirlo, asegurando que siga siendo una fuerza para good”. En este Día Internacional de la Mujer, Acelerar la Acción es más que un tema – es un llamado para garantizar que a medida que la IA da forma a nuestro futuro, lo haga de manera inclusiva y ética. Al amplificar diversas voces y mantener la tecnología con los más altos estándares, podemos crear IA que realmente funcione para todos. Lenovo News. Traducido al español

Leer más »

Un nuevo marco de criptografía para estudios genómicos seguros

Desarrollado a partir de la investigación EPFL, en colaboración con MIT y Yale, la combinación de computación segura y algoritmos distribuidos abre una nueva era para las colaboraciones de datos en investigación médica. Los avances en inteligencia artificial generativa y aprendizaje automático, capacitados en conjuntos de datos a gran escala en múltiples instituciones, tienen el potencial de revolucionar la medicina. Sin embargo, los datos son difíciles de recopilar. Está aislado en hospitales individuales, prácticas médicas y clínicas de todo el mundo. Los riesgos de privacidad derivados de la divulgación de datos médicos también son una preocupación seria, por lo que las regulaciones existentes de intercambio de datos han limitado en gran medida el alcance de las colaboraciones de datos para la investigación médica. Existen herramientas criptográficas para la computación segura, pero no son prácticas o no implementan métodos actuales de vanguardia. Ahora, un enfoque desarrollado por EPFL se ha demostrado con éxito a escala y se está implementando en toda Europa. Secure federated genome-wide association studies o SF-GWAS es una combinación de marcos de computación seguros y algoritmos distribuidos que permite estudios eficientes y precisos sobre datos privados en poder de múltiples entidades al tiempo que garantiza la confidencialidad de los datos. Un estudio sobre cinco conjuntos de datos, incluida una cohorte del Biobanco del Reino Unido de 410,000 individuos, ha mostrado una mejora en el orden de magnitud en el tiempo de ejecución en comparación con los métodos anteriores. “En muchos casos no es posible centralizar los datos por razones prácticas o legales o simplemente porque las personas no están dispuestas a compartirlos. Entonces, el objetivo es extraer información sin compartir los datos,” dijo Jean-Pierre Hubaux, Director Académico de EPFLf Centro de Confianza Digital (C4DT), afiliado a la Escuela de Ciencias de la Computación y la Comunicación. “Nos desarrollamos un prototipo hace varios años, pero lo que faltaba era la demostración de que funciona a escala con conjuntos de datos de tamaño real. Esto ahora se ha hecho en colaboración con MIT y Yale con nuestra última investigación que muestra que es posible extraer información de conjuntos de datos que permanecen distribuidos geográficamente, sin pérdida de precisión significativa en términos de resultados; Esto abre una nueva era en términos de colaboraciones de datos, ” continuó. SF-GWAS combina dos conceptos clave. Primero, se necesita un enfoque federado para asegurar la computación, lo que significa que cada conjunto de datos se mantiene en el sitio de origen respectivo. Esto minimiza los costos computacionales al evitar grandes transferencias de datos entre sitios y permite el uso de operaciones criptográficas eficientes que protegen la salida computacional parcial generada en cada sitio. En segundo lugar, introduce un diseño algorítmico eficiente para apoyar la ejecución federada de varias tuberías GWAS de extremo a extremo. “Suena contradictorio, pero nuestro enfoque comparte datos sin compartir,” explicó Hubaux. “Aprovecha la existencia de los conjuntos de datos sin tener que transferirlos y es esencialmente un valor adicional a los datos, una motivación adicional para trabajar juntos sin perder el control.” SF-GWAS ya se ha instalado en cinco hospitales universitarios de Suiza; Actualmente se está implementando en varios hospitales italianos y para redes europeas de cáncer Tune Insight, el spin-off de EPFL liderando este trabajo. La compañía también está en conversaciones con instituciones médicas en otros países. Además de desbloquear la investigación médica a escala para definir y optimizar la política de salud pública, lo que simplemente no es posible en un mundo de silos, Hubaux cree que SF-GWAS tendrá un valioso beneficio secundario. Actualmente, los conjuntos de datos se distribuyen de facto en todo el mundo, sentados en discos duros y cintas aquí y allá, porque tradicionalmente ha sido tan complicado transferir datos. El registro de datos médicos también se aplica de manera diferente en diferentes lugares. Hubaux llama a esto “prehistoric” y dice que, como resultado, los conjuntos de datos están muy subutilizados. “Estamos configurando un sistema de valores para asegurarnos de que los datos futuros sean interoperables, que se registren de la misma manera lugar a lugar, de lo contrario será basura, basura. Es costoso y la transición llevará tiempo, pero hemos desarrollado las herramientas para facilitarlo y hay una evolución en marcha, dijo ” Hubaux. “La voluntad de trabajar a escala es un cambio de cultura y espero que este sea un círculo virtuoso: las personas se sienten alentadas a ser más rigurosas en términos de la forma en que almacenan y estructuran sus datos para garantizar la interoperabilidad porque si no lo hacen, su institución puede ser excluida del resto de la comunidad. Esto es realmente un beneficio secundario – mejor calidad general de salud y datos médicos.” Enlace al documento completo: https://rdcu.be/ea16o EPFL News. T. P. Traducido al español

Leer más »

Presentamos NextGenAI: Un consorcio para avanzar en la investigación y la educación con IA

OpenAI compromete $50M en financiamiento y herramientas a instituciones líderes. Hoy, weimre lanzamiento SiguienteGenaI, un consorcio primero de su tipo con 15 instituciones de investigación líderes dedicadas al uso de la IA para acelerar los avances de la investigación y transformar la educación. La IA tiene el poder de impulsar el progreso en la investigación y la educación, pero solo cuando las personas tienen las herramientas adecuadas para aprovecharla. Es por eso que OpenAI está comprometiendo $50M en becas de investigación, financiamiento de cómputo y acceso a API para apoyar a estudiantes, educadores e investigadores que avanzan en las fronteras del conocimiento. Uniendo instituciones en los Estados Unidos y en el extranjero, NextGenAI tiene como objetivo catalizar el progreso a un ritmo más rápido que cualquier institución por sí sola. Esta iniciativa está construida no solo para alimentar la próxima generación de descubrimientos, sino también para preparar a la próxima generación para dar forma al futuro de la IA. La Próxima Generación de Líderes de IA Los socios fundadores de NextGenAia son Caltech, el sistema de la Universidad Estatal de California, la Universidad de Duke, la Universidad de Georgia, la Universidad de Harvard, la Universidad de Howard, el Instituto de Tecnología de Massachusetts, la Universidad de Michigan, la Universidad de Mississippi, la Universidad Estatal de Ohio, la Universidad de Oxford, Sciences Po, la Universidad de Texas A&M, así como el Hospital de Niños de Boston, la Biblioteca Pública de Boston y OpenAI. Cada institución está utilizando la IA para abordar desafíos de alto impacto, desde revolucionar la atención médica hasta reinventar la educación. Aquí hay algunos ejemplos de su trabajo innovador: Acelerar la próxima generación de avances en investigación “Ohio State está a la vanguardia de un enfoque multidisciplinario de los beneficios de la IA, que afecta significativamente tanto a la investigación como a la educación. Estamos entusiasmados de unirnos a Open AI y esta asociación de investigación de élite, que nos permitirá impulsar descubrimientos y avances aún más innovadores en medicina, fabricación, informática y más allá.” —Peter J. Mohler, Vicepresidente Ejecutivo de Investigación, Innovación y Conocimiento La Universidad Estatal de Ohio Empoderar a la próxima generación para que sea fluida con la IA “Esperamos colaborar con OpenAI, cuyo apoyo nos permitirá capacitar a nuestros estudiantes, investigadores y la comunidad académica en general con conocimientos y habilidades de vanguardia en el campo de la inteligencia artificial generativa en rápida evolución.” —Dr. Robert H. Obispo, Vicecanciller y Decano de la Facultad de Ingeniería Universidad Texas A&M Imaginando el futuro de las universidades y bibliotecas impulsadas por IA “Esta nueva colaboración marca un emocionante paso adelante, ofreciendo nuevas oportunidades para enriquecer nuestra investigación, expandir nuestras capacidades de IA y fomentar el desarrollo de habilidades. Al trabajar juntos, podemos aprender unos de otros, avanzando en las fronteras de la inteligencia artificial, entendiendo su impacto en la educación y desbloqueando su vasto potencial para el beneficio de nuestra comunidad universitaria y más allá.” —Anne Trefethen, Pro-Vice-Canciller, Digital Universidad de Oxford Fortalecimiento de la Conexión entre Academia e Industria NextGenAI refuerza la asociación vital entre la academia y la industria, asegurando que los beneficios de AI se extiendan a laboratorios, bibliotecas, hospitales y aulas en todo el mundo. “El campo de la IA no estaría donde está hoy sin décadas de trabajo en la comunidad académica. La colaboración continua es esencial para construir IA que beneficie a todos. NextGenAI acelerará el progreso de la investigación y catalizará una nueva generación de instituciones equipadas para aprovechar el poder transformador de la IA.” —Brad Lightcap, Director de Operaciones, OpenAI Esta iniciativa amplía el compromiso de OpenAIal con la educación, tras el lanzamiento de Edu ChatGPT en mayo de 2024, lo que permitió el acceso de toda la universidad a ChatGPT. NextGenaIcomplementa este esfuerzo al proporcionar a las instituciones las API de OpenAIai y fondos para impulsar la innovación crítica. NextGenAI está diseñado para apoyar al científico que busca una cura, al erudito que descubre nuevas ideas y al estudiante que domina la IA para el mundo por delante.  A medida que aprendemos de esta iniciativa, exploraremos oportunidades para expandir su alcance e impacto. Esperamos compartir actualizaciones a medida que nuestros socios impulsan el progreso, un avance a la vez. OpenAI News. Traducido al español

Leer más »

NVIDIA Deep Learning Institute lanza el Nuevo Kit Generativo de Enseñanza de IA

La IA generativa, impulsada por modelos avanzados de aprendizaje automático y redes neuronales profundas, está revolucionando las industrias al generar contenido novedoso e impulsar la innovación en campos como la atención médica, las finanzas y el entretenimiento.  NVIDIA lidera esta transformación con sus arquitecturas de GPU y ecosistemas de software de vanguardia, como el H100 Núcleo del Tensor GPU y plataforma CUDA, que optimizan el desarrollo y despliegue de modelos generativos. NIM NVIDIA mejora la eficiencia y la escalabilidad de las tareas de inferencia de IA, permitiendo una rápida implementación e iteración en varios entornos informáticos y acelerando los avances en aplicaciones de IA generativas. La importancia de la educación generativa en IA A medida que los modelos de IA generativos, como los GAN y los transformadores, se vuelven cada vez más sofisticados, existe una creciente demanda de profesionales calificados que puedan desarrollar, refinar y desplegar éticamente estas tecnologías. Una sólida base educativa en IA generativa equipa a los estudiantes con las habilidades prácticas y los conocimientos teóricos necesarios para innovar en áreas como la creación de contenido, el descubrimiento de fármacos y los sistemas autónomos.  La educación universitaria y universitaria en IA generativa es crucial debido al papel en rápida expansión de la IA en casi todas las industrias. Al integrar la IA generativa en su plan de estudios, las universidades preparan a la próxima generación de investigadores, ingenieros y líderes de opinión de IA para avanzar en el campo y abordar los complejos desafíos asociados con la innovación impulsada por la IA.  El nuevo Generative AI Teaching Kit, una colaboración entre el NVIDIA Deep Learning Institute (DLI) y Dartmouth College, está configurado para capacitar a la próxima generación de profesionales con las habilidades y conocimientos necesarios en este campo en rápida evolución.  Este recurso de enseñanza integral permite a los educadores proporcionar a los estudiantes acceso a herramientas, marcos y ejercicios prácticos de vanguardia que son cruciales para comprender las complejidades de la IA generativa y el desarrollo e implementación de modelos de lenguaje grande. Al equipar a los estudiantes con una comprensión profunda de las técnicas de IA generativa, el Kit de Enseñanza permite a los educadores fomentar la innovación y la creatividad futuras en las industrias impulsadas por la IA.  A medida que los estudiantes hagan la transición a la fuerza laboral, estarán mejor preparados para enfrentar los desafíos globales, desde mejorar la atención médica y la ciencia hasta avanzar en tecnologías sostenibles. Sam Raymond, profesor asistente adjunto de ingeniería en el Dartmouth College, fue instrumental en el desarrollo del contenido. “Empoderar a los estudiantes con habilidades para comprender y desarrollar potencialmente sus propias aplicaciones de IA generativa aceleradas por GPU es el objetivo principal,” dijo Raymond. “Creo que los estudiantes que pasan por este curso tendrán una ventaja significativa en el mercado laboral y ayudarán a cerrar la brecha de conocimiento en las industrias de hoy.” Descripción general del Kit de Enseñanza Generativa de IA  Todos los Kits de Enseñanza incluyen diapositivas de conferencias, laboratorios prácticos, cuadernos Jupyter, verificaciones de conocimientos y cursos gratuitos en línea a su propio ritmo que proporcionan certificados de competencia para los estudiantes, todos empaquetados y listos para la integración en el aula y el plan de estudios. El objetivo del Generative AI Teaching Kit es introducir los conceptos fundamentales del procesamiento del lenguaje natural (PNL) que son esenciales para comprender los LLM y la IA generativa de manera más amplia. Los conceptos clave de los LLM se examinan utilizando GPU, herramientas y servicios de NVIDIA, así como bibliotecas y marcos de código abierto. Un simple ejercicio de preentrenamiento de un modelo GPT muestra los procesos básicos de entrenamiento en la nube.  El kit también cubre modelos de difusión para explorar la aplicación de IA generativa en la generación de imágenes y videos. Luego se introducen arquitecturas LLM multimodales, con un enfoque en la optimización de varias arquitecturas LLM durante el ajuste fino utilizando el marco NVIDIA NeMo. También se discuten los avances en la inferencia y el refinamiento de herramientas como chatbots, utilizando NVIDIA NIM, NeMo Guardrails, TensorRT y TensorRT-LLM para mejorar la eficiencia y la escalabilidad en entornos de producción. El Generative AI Teaching Kit contiene módulos enfocados que combinan teoría, algoritmos, programación y ejemplos: A través de una colaboración con Google, los educadores también tienen acceso a créditos gratuitos de Google Colab para ejecutar los cuadernos de laboratorio en preparación para la enseñanza del curso. Este contenido es valioso para educadores en diversos campos, especialmente en informática e ingeniería. Su diseño modular permite a los instructores adaptar el curso para satisfacer las necesidades específicas de sus estudiantes y crear una experiencia de aprendizaje personalizada. Profesores seleccionados de todo el mundo ya han tenido acceso temprano a módulos de primera versión. “Iianm ansioso por integrar el Kit de Enseñanza de IA Generativa en mi clase de IA en Ingeniería de Materiales,” dijo Mohadesh Taheri-Mousavi, profesor asistente en el departamento de Ciencia e Ingeniería de Materiales de la Universidad Carnegie Mellon. “Las notas de conferencias completas con laboratorios de codificación bien estructurados con ejemplos de diversos campos y cursos en línea asociados con certificados, proporcionarán a mis estudiantes los recursos de vanguardia para comprender profundamente las amplias aplicaciones de las técnicas de IA generativa en varios campos El profesor Payam Barnaghi del Departamento de Ciencias del Cerebro del Imperial College de Londres utiliza LLM y IA generativa en su investigación utilizando registros electrónicos de salud y datos de atención médica. “el contenido del Kit de enseñanza de IA generativa de NVIDIA es un recurso maravilloso para que los estudiantes aprendan los últimos desarrollos en IA y aprendizaje automático,” dijo Barnaghi. “Como resultado de tener acceso temprano a los primeros módulos, planeo usar este contenido como base para enseñar temas avanzados en mi aprendizaje automático para cursos de neurociencia.” Dados los rápidos avances en la IA generativa, los educadores pueden esperar que los materiales de enseñanza se actualicen con el tiempo. NVIDIA se dedica a ofrecer recursos educativos de alta gama y agradece

Leer más »
Scroll al inicio