El Portal de las Tecnologías para la Innovación

Categoría: Notas y Entrevistas

¿Qué sabemos sobre la economía de la IA?

El premio Nobel Daron Acemoglu ha estudiado durante mucho tiempo el crecimiento impulsado por la tecnología. Así es como piensa sobre el efecto de la IA en la economía. A pesar de todo lo que se dice sobre la inteligencia artificial que cambiará el mundo, sus efectos económicos siguen siendo inciertos. Hay inversiones masivas en IA, pero no se sabe con certeza qué producirá. El estudio de la IA se ha convertido en una parte importante del trabajo del economista ganador del Nobel Daron Acemoglu. Acemoglu, profesor del Instituto Tecnológico de Massachusetts (MIT), lleva mucho tiempo estudiando el impacto de la tecnología en la sociedad, desde la modelización de la adopción a gran escala de innovaciones hasta la realización de estudios empíricos sobre el impacto de los robots en los puestos de trabajo. En octubre, Acemoglu también compartió el Premio Sveriges Riksbank en Ciencias Económicas 2024 en memoria de Alfred Nobel con dos colaboradores, Simon Johnson, PhD ’89 de la MIT Sloan School of Management y James Robinson de la Universidad de Chicago, por su investigación sobre la relación entre las instituciones políticas y el crecimiento económico. Su trabajo muestra que las democracias con derechos sólidos mantienen un mejor crecimiento a lo largo del tiempo que otras formas de gobierno. Dado que gran parte del crecimiento proviene de la innovación tecnológica, la forma en que las sociedades utilizan la IA es de gran interés para Acemoglu, quien ha publicado una variedad de artículos sobre la economía de la tecnología en los últimos meses. “¿De dónde saldrán las nuevas tareas para los humanos con la IA generativa?”, pregunta Acemoglu. “No creo que las sepamos todavía, y esa es la cuestión. ¿Cuáles son las aplicaciones que realmente van a cambiar la forma en que hacemos las cosas?” ¿Cuáles son los efectos mensurables de la IA? Desde 1947, el crecimiento del PIB de Estados Unidos ha sido en promedio de alrededor del 3 por ciento anual, con un crecimiento de la productividad de alrededor del 2 por ciento anual. Algunas predicciones han afirmado que la IA duplicará el crecimiento o al menos creará una trayectoria de crecimiento más alta que lo habitual. En cambio, en un artículo, “ La macroeconomía simple de la IA ”, publicado en la edición de agosto de Economic Policy , Acemoglu estima que durante la próxima década, la IA producirá un “aumento modesto” del PIB de entre el 1,1 y el 1,6 por ciento en los próximos 10 años, con un aumento anual de aproximadamente el 0,05 por ciento en la productividad. La evaluación de Acemoglu se basa en estimaciones recientes sobre cuántos empleos se ven afectados por la IA, incluido un estudio de 2023 realizado por investigadores de OpenAI, OpenResearch y la Universidad de Pensilvania, que concluye que alrededor del 20 por ciento de las tareas laborales de EE. UU. podrían estar expuestas a capacidades de IA. Un estudio de 2024 realizado por investigadores de MIT FutureTech, así como del Productivity Institute e IBM, concluye que alrededor del 23 por ciento de las tareas de visión artificial que pueden automatizarse en última instancia podrían realizarse de manera rentable en los próximos 10 años. Aún más investigaciones sugieren que el ahorro de costos promedio de la IA es de alrededor del 27 por ciento. En lo que respecta a la productividad, “no creo que debamos subestimar un 0,5 por ciento en 10 años. Eso es mejor que cero”, afirma Acemoglu. “Pero es simplemente decepcionante en relación con las promesas que están haciendo las personas de la industria y del periodismo tecnológico”. Sin duda, se trata de una estimación, y podrían surgir aplicaciones adicionales de la IA: como escribe Acemoglu en el artículo, su cálculo no incluye el uso de la IA para predecir las formas de las proteínas, por lo que otros académicos compartieron posteriormente un Premio Nobel en octubre. Otros observadores han sugerido que las “reasignaciones” de trabajadores desplazados por la IA crearán un crecimiento y una productividad adicionales, más allá de las estimaciones de Acemoglu, aunque él no cree que esto tenga mucha importancia. “Las reasignaciones, a partir de la asignación real que tenemos, normalmente generan solo pequeños beneficios”, dice Acemoglu. “Los beneficios directos son lo importante”. Y añade: “He intentado redactar el documento de forma muy transparente, explicando qué se incluye y qué no. La gente puede estar en desacuerdo diciendo que las cosas que he excluido son importantes o que las cifras de las cosas incluidas son demasiado modestas, y eso está perfectamente bien”. ¿Que trabajos? Realizar este tipo de estimaciones puede agudizar nuestras intuiciones sobre la IA. Muchos pronósticos sobre la IA la han descrito como revolucionaria; otros análisis son más cautelosos. El trabajo de Acemoglu nos ayuda a comprender en qué escala podemos esperar cambios. “Vayamos al año 2030”, dice Acemoglu. “¿En qué medida cree que la economía estadounidense cambiará gracias a la IA? Podría ser un completo optimista en materia de IA y pensar que millones de personas habrían perdido su trabajo gracias a los chatbots, o tal vez que algunas personas se han convertido en trabajadores superproductivos porque con la IA pueden hacer diez veces más cosas que antes. No lo creo. Creo que la mayoría de las empresas seguirán haciendo más o menos lo mismo. Algunas profesiones se verán afectadas, pero seguiremos teniendo periodistas, seguiremos teniendo analistas financieros y seguiremos teniendo empleados de recursos humanos”. Si eso es correcto, entonces la IA probablemente se aplique a un conjunto limitado de tareas de cuello blanco, donde grandes cantidades de poder computacional pueden procesar una gran cantidad de entradas más rápido que los humanos. “Esto afectará a muchos empleos de oficina que implican resumen de datos, comparación visual, reconocimiento de patrones, etcétera”, añade Acemoglu. “Y esos son, en esencia, alrededor del 5 por ciento de la economía”. Aunque a veces se ha considerado a Acemoglu y Johnson como escépticos respecto de la IA, ellos se consideran realistas. “Estoy tratando de no ser pesimista”, dice Acemoglu. “Hay cosas que la IA generativa puede hacer y

Leer más »

La IA de código abierto es el camino a seguir

Por Mark Zuckerberg, fundador y director ejecutivo En los primeros tiempos de la informática de alto rendimiento, las principales empresas tecnológicas de la época invirtieron mucho en el desarrollo de sus propias versiones de código cerrado de Unix. En aquel momento era difícil imaginar que cualquier otro enfoque pudiera desarrollar un software tan avanzado. Sin embargo, con el tiempo, Linux de código abierto ganó popularidad, inicialmente porque permitía a los desarrolladores modificar su código como quisieran y era más asequible, y con el tiempo porque se volvió más avanzado, más seguro y tenía un ecosistema más amplio que admitía más capacidades que cualquier Unix cerrado. Hoy, Linux es la base estándar de la industria tanto para la computación en la nube como para los sistemas operativos que ejecutan la mayoría de los dispositivos móviles, y todos nos beneficiamos de productos superiores gracias a ello. Creo que la IA se desarrollará de manera similar. Hoy en día, varias empresas tecnológicas están desarrollando modelos cerrados líderes, pero el código abierto está cerrando rápidamente la brecha. El año pasado, Llama 2 solo era comparable a una generación anterior de modelos que estaban detrás de la frontera. Este año, Llama 3 es competitivo con los modelos más avanzados y líder en algunas áreas. A partir del próximo año, esperamos que los futuros modelos de Llama se conviertan en los más avanzados de la industria. Pero incluso antes de eso, Llama ya es líder en apertura, modificabilidad y eficiencia de costos. Hoy estamos dando los siguientes pasos para que la IA de código abierto se convierta en el estándar de la industria. Estamos lanzando Llama 3.1 405B, el primer modelo de IA de código abierto de nivel de frontera, así como los nuevos y mejorados modelos Llama 3.1 70B y 8B. Además de tener una relación costo/rendimiento significativamente mejor en relación con los modelos cerrados, el hecho de que el modelo 405B sea abierto lo convertirá en la mejor opción para ajustar y destilar modelos más pequeños. Además de lanzar estos modelos, estamos trabajando con una variedad de empresas para hacer crecer el ecosistema más amplio. Amazon, Databricks y NVIDIA están lanzando paquetes completos de servicios para ayudar a los desarrolladores a ajustar y destilar sus propios modelos. Innovadores como Groq han creado servicios de inferencia de baja latencia y bajo costo para todos los nuevos modelos. Los modelos estarán disponibles en todas las nubes principales, incluidas AWS, Azure, Google, Oracle y más. Empresas como Scale.AI, Dell, Deloitte y otras están listas para ayudar a las empresas a adoptar Llama y entrenar modelos personalizados con sus propios datos. A medida que la comunidad crece y más empresas desarrollan nuevos servicios, podemos hacer de Llama el estándar de la industria y llevar los beneficios de la IA a todos. Meta está comprometida con la IA de código abierto. Explicaré por qué creo que el código abierto es la mejor herramienta de desarrollo para ti, por qué la versión de código abierto de Llama es buena para Meta y por qué la IA de código abierto es buena para el mundo y, por lo tanto, una plataforma que permanecerá vigente a largo plazo. Por qué la IA de código abierto es buena para los desarrolladores Cuando hablo con desarrolladores, directores ejecutivos y funcionarios gubernamentales de todo el mundo, suelo escuchar varios temas: Por qué la IA de código abierto es buena para Meta El modelo de negocio de Meta consiste en crear las mejores experiencias y servicios para las personas. Para ello, debemos asegurarnos de tener siempre acceso a la mejor tecnología y de no quedarnos encerrados en el ecosistema cerrado de un competidor que pueda restringir lo que construimos. Una de mis experiencias formativas ha sido la de crear nuestros servicios con las limitaciones que Apple nos permite crear en sus plataformas. Entre la forma en que gravan a los desarrolladores, las reglas arbitrarias que aplican y todas las innovaciones de productos que impiden que se publiquen, está claro que Meta y muchas otras empresas tendrían más libertad para crear servicios mucho mejores para las personas si pudiéramos crear las mejores versiones de nuestros productos y los competidores no pudieran limitar lo que podíamos crear. A nivel filosófico, esta es una de las principales razones por las que creo tan firmemente en la creación de ecosistemas abiertos en IA y AR/VR para la próxima generación de la informática. La gente a menudo me pregunta si me preocupa renunciar a una ventaja técnica al publicar Llama como código abierto, pero creo que esto no refleja el panorama general por algunas razones: En primer lugar, para garantizar que tengamos acceso a la mejor tecnología y que no estemos atrapados en un ecosistema cerrado a largo plazo, Llama necesita convertirse en un ecosistema completo de herramientas, mejoras de eficiencia, optimizaciones de silicio y otras integraciones. Si fuéramos la única empresa que utiliza Llama, este ecosistema no se desarrollaría y no nos iría mejor que a las variantes cerradas de Unix. En segundo lugar, espero que el desarrollo de la IA siga siendo muy competitivo, lo que significa que la apertura de código de cualquier modelo no supondrá una ventaja enorme sobre los siguientes mejores modelos en ese momento. El camino para que Llama se convierta en el estándar de la industria es ser consistentemente competitivo, eficiente y abierto generación tras generación. En tercer lugar, una diferencia clave entre Meta y los proveedores de modelos cerrados es que vender el acceso a los modelos de IA no es nuestro modelo de negocio. Eso significa que publicar Llama abiertamente no socava nuestros ingresos, nuestra sostenibilidad o nuestra capacidad de invertir en investigación como sí ocurre con los proveedores cerrados (esta es una de las razones por las que varios proveedores cerrados presionan constantemente a los gobiernos contra el código abierto). Por último, Meta tiene una larga trayectoria de proyectos y éxitos de código abierto. Hemos ahorrado miles de millones de dólares al publicar nuestros diseños de servidores, redes y centros

Leer más »

StrictlyVC San Francisco

Los eventos de StrictlyVC ofrecen contenido exclusivo de capital de riesgo y, al mismo tiempo, crean conexiones significativas con los principales inversores y emprendedores. Únase a nosotros para disfrutar de una velada de entrevistas íntimas con pesos pesados ​​de la industria y conversaciones impactantes. ¡Un gran agradecimiento a Pear VC por organizar el evento y a Scale Venture Partners como nuestro principal patrocinador! Próximamente se añadirán más oradores a la agenda. Mix and Mingle: Cócteles con contenido espectacular. Los eventos de StrictlyVC ofrecen contenido exclusivo de Silicon Valley y la escena de emprendimiento global. Si eres un inversor que busca relacionarte con tus colegas y ver contenido excelente, este evento es para ti. Obtén información exclusiva directamente de fuentes en las que puedes confiar. Los eventos anteriores incluyeron entrevistas con Sam Altman (Open AI), Marc Andreessen (Andreessen Horowitz), Katie Haun (Haun Ventures), Hans Tung (GGV Capital) y muchos más. TechCrunch. Traducido al español

Leer más »

Un diseñador de datos motivado a colaborar con las comunidades

La profesora asociada Catherine D’Ignazio reflexiona detenidamente sobre cómo adquirimos y mostramos datos y por qué carecemos de ellos para muchas cosas. En el discurso público es bastante común que alguien anuncie: “He aportado datos a este debate”, presentando así sus propias conclusiones como empíricas y racionales. Es menos común preguntar: ¿de dónde proceden los datos? ¿Cómo se han recopilado? ¿Por qué hay datos sobre algunas cosas pero no sobre otras? La profesora asociada del MIT Catherine D’Ignazio SM ’14 se plantea ese tipo de preguntas. Es una académica con una amplia cartera de trabajos y tiene un gran interés en aplicar datos a cuestiones sociales, a menudo para ayudar a los desfavorecidos a acceder a los números y para ayudar a proporcionar un panorama más completo de los problemas cívicos que estamos tratando de abordar. «Si queremos que una ciudadanía educada participe en nuestra democracia con datos y argumentos basados ​​en datos, deberíamos pensar en cómo diseñamos nuestras infraestructuras de datos para respaldarlo», afirma D’Ignazio. Tomemos como ejemplo el problema del feminicidio, el asesinato de mujeres como resultado de la violencia de género. Activistas de toda América Latina comenzaron a tabular los casos al respecto y a crear bases de datos que a menudo eran más exhaustivas que los registros oficiales del Estado. D’Ignazio ha observado el problema y, junto con colegas, ha diseñado herramientas de inteligencia artificial con defensores de los derechos humanos para apoyar su trabajo de monitoreo. A su vez, el libro de D’Ignazio sobre el tema, “Counting Feminicide”, publicado en 2024, relata todo el proceso y ha ayudado a acercar el tema a un nuevo público. Donde antes había un vacío de datos, ahora hay bases de datos sustanciales que ayudan a las personas a reconocer la realidad del problema en varios continentes, gracias a ciudadanos innovadores. El libro describe cómo la ciencia de datos de base y el activismo ciudadano de datos son, en general, formas crecientes de participación cívica. “Cuando hablamos de innovación, pienso: ¿Innovación para quién? ¿Innovación por parte de quién? Para mí, esas son preguntas clave”, dice D’Ignazio, miembro del Departamento de Estudios Urbanos y Planificación del MIT y directora del Laboratorio de Datos y Feminismo del MIT. Por su investigación y docencia, D’Ignazio recibió la titularidad a principios de este año. Desde las bases D’Ignazio lleva mucho tiempo interesada en la ciencia de datos, el diseño digital y los asuntos globales. Recibió su licenciatura en relaciones internacionales de la Universidad de Tufts y luego se convirtió en desarrolladora de software en el sector privado. Al regresar a sus estudios, obtuvo un máster en bellas artes del Maine College of Art y luego un máster del MIT Media Lab, lo que la ayudó a sintetizar su perspectiva intelectual. “Para mí, el Media Lab fue el lugar donde pude hacer converger todos esos intereses en los que había estado pensando”, dice D’Ignazio. “¿Cómo podemos tener aplicaciones más creativas de software y bases de datos? ¿Cómo podemos tener aplicaciones de IA más justas desde el punto de vista social? ¿Y cómo organizamos nuestra tecnología y nuestros recursos para un futuro más participativo y equitativo para todos nosotros?” Es cierto que D’Ignazio no pasó todo su tiempo en el Media Lab examinando cuestiones relacionadas con las bases de datos. En 2014 y 2018 coorganizó un hackathon feminista llamado “Make the Breast Pump Not Suck”, en el que cientos de participantes desarrollaron tecnologías y políticas innovadoras para abordar la salud posparto y la alimentación infantil. Aun así, gran parte de su trabajo se ha centrado en la arquitectura de datos, la visualización de datos y el análisis de la relación entre la producción de datos y la sociedad. D’Ignazio comenzó su carrera docente como profesora en el programa de posgrado de Medios y Tecnología Digital de la Escuela de Diseño de Rhode Island, y luego se convirtió en profesora adjunta de Visualización de datos y Medios cívicos en el Departamento de Periodismo del Emerson College. Se unió a la facultad del MIT como profesora adjunta en 2020. El primer libro de D’Ignazio, “Feminismo de datos”, coescrito con Lauren Klein de la Universidad Emory y publicado en 2020, analizó de forma amplia las diversas formas en que los datos cotidianos reflejan la sociedad cívica de la que surgen. Las tasas de agresión sexual denunciadas en los campus universitarios, por ejemplo, podrían ser engañosas porque las instituciones con las tasas más bajas podrían ser las que tienen los climas de denuncia más problemáticos para las sobrevivientes. La visión global de D’Ignazio (ha vivido en Francia, Argentina y Uruguay, entre otros lugares) la ha ayudado a comprender las políticas regionales y nacionales que subyacen a estos problemas, así como los desafíos que pueden enfrentar los organismos de control ciudadano en materia de recopilación de datos. Nadie debería pensar que estos proyectos son fáciles. “Se invierte mucho trabajo de base en la producción de datos”, afirma D’Ignazio. “Algo realmente interesante es la enorme cantidad de trabajo que requiere la base de científicos ciudadanos para que los datos sean realmente útiles. Y muchas veces eso se debe a que las estructuras de datos institucionales son realmente deficientes”. Permitiendo que los estudiantes prosperen En general, la cuestión de quién participa en la ciencia de datos es, como han escrito D’Ignazio y Klein, «el elefante en la sala de servidores». Como profesora asociada, D’Ignazio trabaja para alentar a todos los estudiantes a pensar abiertamente sobre la ciencia de datos y sus fundamentos sociales. A su vez, también se inspira en estudiantes productivos. “Parte de la alegría y el privilegio de ser profesor es que tienes estudiantes que te llevan en direcciones que tú mismo no habrías tomado”, afirma D’Ignazio. Wonyoung So, uno de los estudiantes de posgrado de D’Ignazio en este momento, ha estado investigando cuestiones relacionadas con los datos de vivienda. Es bastante sencillo para los propietarios acceder a la información sobre los inquilinos, pero no tanto a la inversa; esto hace que sea difícil averiguar si los propietarios tienen tasas de

Leer más »

Conferencia de Stanford explora la tecnología educativa en la era de la IA

El Acelerador de Aprendizaje de Stanford convocó a líderes de tecnología educativa, investigadores, financiadores, educadores y estudiantes para visualizar una tecnología educativa efectiva, respaldada por investigaciones, equitativa y receptiva. “Queremos que los estudiantes prosperen durante toda su vida y que tengan las experiencias educativas que conduzcan a ese progreso”, dijo la profesora Susanna Loeb en el panel de apertura de la cumbre Accelerate Edtech Impact 2024 en Stanford. “Queremos eso para todos los estudiantes. No solo queremos eso para los estudiantes de familias con buenos recursos, y no solo queremos eso para los estudiantes que están motivados y comprometidos con la escuela en este momento… realmente tenemos que pensar en la amplia gama de estudiantes”. La experiencia del alumno fue el eje central de la segunda cumbre anual, organizada por Stanford Accelerator for Learning. Antes de que Loeb subiera al escenario, la cumbre comenzó con cuatro oradores estudiantes, desde un estudiante de secundaria hasta un estudiante de doctorado, que reflexionaron sobre cómo la inteligencia artificial ha influido en su aprendizaje. Y antes, ocho estudiantes de Stanford mostraron proyectos de tecnología educativa de su propia creación. La convocatoria reunió a 400 líderes, investigadores, financiadores, educadores y estudiantes de tecnología educativa en un espacio diseñado para compartir conocimientos, conectarse e inspirarse. Las 10 sesiones, que abarcaron desde paneles hasta talleres interactivos, mostraron usos efectivos de la tecnología educativa, exploraron el papel de la investigación y pusieron a los actores clave en diálogo entre sí. Cada panel incluyó al menos un educador, un investigador de Stanford y un líder de tecnología educativa, y las conversaciones se basaron en una visión compartida de un aprendizaje efectivo, equitativo y receptivo habilitado por la tecnología. Las principales conclusiones de la cumbre incluyeron: La tecnología educativa exitosa coloca a los educadores en el asiento del conductor, apoyados por el liderazgo de la escuela y el distrito. Los oradores de las distintas sesiones destacaron que las herramientas de tecnología educativa más eficaces empoderan a los docentes en lugar de dificultarles el trabajo. Los líderes tecnológicos, en particular, reflexionaron sobre el hecho de que, con puntos de acceso accesibles a una herramienta y un espacio para experimentar, los docentes suelen encontrar mejores usos de los que se habían imaginado originalmente. “Cuando el docente está capacitado para usar esta tecnología y la comprende en profundidad, será increíblemente creativo a la hora de utilizarla con sus alumnos”, afirmó Adeel Khan, fundador y director ejecutivo de Magic School. “Hemos visto casos de uso que se les ocurren a las personas porque entienden su profesión y comprenden el contexto de sus alumnos mucho más profundamente que yo o cualquier otra persona”. Magic School tiene como objetivo apoyar a los docentes con herramientas de inteligencia artificial que ayuden a crear evaluaciones, planificar lecciones y diferenciar la instrucción. Lane Dilg, responsable de iniciativas estratégicas en OpenAI, creador de ChatGPT, dijo que los profesores crearán los mejores usos del programa de IA generativa y, cuando se utilice correctamente, ve potencial en la herramienta para mejorar la satisfacción laboral de los profesores. “Esperamos que nuestros modelos… sean tan beneficiosos y útiles para la enseñanza y el aprendizaje como sea posible. Pero en términos de implementación real, nos centraremos primero, en particular en la educación primaria y secundaria, en apoyar a los educadores”. Richard Charles, director de información de las escuelas públicas de Denver, demostró el papel del liderazgo a la hora de empoderar a los docentes en lo que respecta al uso de la tecnología. Supervisa cómo los docentes de su distrito utilizan las herramientas tecnológicas de manera eficaz y eleva su trabajo a otros educadores. También participó en la creación de una lista de verificación de preparación para la IA desde el jardín de infantes hasta el 12.º grado, en colaboración con otros cuatro distritos y consorcios escolares, proporcionando orientación que permite a los docentes dar rienda suelta a su creatividad. Las herramientas de IA deberían hacer más que tareas tediosas: pueden ayudar a mejorar la enseñanza. Desde el lanzamiento de ChatGPT, los tecnólogos educativos han explorado formas en que puede ayudar a reducir las horas de trabajo humano al ayudar con tareas repetitivas y que consumen mucho tiempo, como calificar, crear horarios o asistencia, lo que permite a los docentes dedicar tiempo y energía a concentrarse en sus estudiantes y ahorrarles dinero a las escuelas y recursos de personal. Sin embargo, un tema que surgió en todas las sesiones fue la posibilidad de que la IA aumente y mejore la práctica de la enseñanza. Con una enorme cantidad de datos disponibles para recopilar sobre los alumnos, la IA puede ayudar a procesarlos y traducirlos para brindar información útil a los maestros, estudiantes y padres. Entre los ejemplos citados se incluyen los siguientes: Con las nuevas herramientas disponibles, la industria de la evaluación también está evolucionando. La gente está “cuestionando la noción de una prueba estandarizada tradicional”, dijo Amit Sevak, director ejecutivo de Educational Testing Service (ETS), conocido por crear y administrar evaluaciones como TOEFL, GRE y Praxis. ETS está expandiendo su negocio para centrarse en evaluaciones personalizadas en lugar de estandarizadas, aquellas que miden el desempeño en lugar del conocimiento y aquellas que evalúan las habilidades del siglo XXI. Su trabajo incluye expandir tanto la tecnología como la metodología de evaluación. “Realmente estamos avanzando hacia una nueva era… hemos estado atravesando una transformación masiva”, reflexionó. La investigación educativa sigue siendo clave para diseñar tecnología educativa eficaz. Es ampliamente sabido que la tecnología educativa debe basarse en evidencia, pero se están desarrollando nuevas herramientas a un ritmo más rápido que la investigación tradicional revisada por pares. Los investigadores, tecnólogos y financiadores idearon cómo garantizar que los últimos conocimientos sirvan de base para las últimas soluciones. Algunas ideas que surgieron: La tecnología puede ampliar cómo y cuándo ocurre el aprendizaje y qué se enseña. En una charla informal de cierre, Jon Levin, presidente de la Universidad de Stanford, ’94, y Neal Mohan, director ejecutivo de YouTube, ’96, MBA ’05, reflexionaron sobre cómo la tecnología ha expandido

Leer más »

El futuro de la proyección climática

Un experto en modelización del clima global analiza cómo nuevos datos y nuevas técnicas están proporcionando una visión más clara que nunca de nuestro futuro atmosférico. Aditi Sheshadri, modeladora climática , dice que si bien la previsión meteorológica y la proyección climática se basan en una ciencia similar, son disciplinas muy diferentes.  La previsión consiste en mirar hacia la próxima semana, mientras que la proyección consiste en mirar hacia el próximo siglo. Sheshadri le cuenta al presentador Russ Altman cómo los nuevos datos y técnicas, como los globos aerostáticos de gran altitud de bajo costo y la inteligencia artificial, están cambiando el futuro de la proyección climática en este episodio del podcast The Future of Everything de Stanford Engineering .Código para insertar Escúchalo en tu plataforma de podcast favorita:       https://engineering.stanford.edu/media/oembed?url=https%3A//youtu.be/__lH62JCb6c&max_width=0&max_height=0&hash=bq3sB7A27wh692Om5K3s-MovzE3HkXPIM-Fik9fNtQc Relacionado : Aditi Sheshadri , profesora asistente de ciencias del sistema terrestre  Transcripción [00:00:00] Aditi Sheshadri: Constituyen una parte sustancial del presupuesto de momento de la corriente en chorro, que es un fenómeno a escala planetaria con el que todo el mundo está familiarizado. Si la corriente en chorro, por ejemplo, se desacelerara o acelerara, el tiempo que tardarías en llegar de Nueva York a Londres sería muy, muy diferente, ¿verdad? Así que el presupuesto de momento de la corriente en chorro está determinado en parte por estas ondas de gravedad. [00:00:28] Russ Altman: Este es El futuro de todo de Stanford Engineering y yo soy su anfitrión, Russ Altman. Si está disfrutando del podcast y si le ha ayudado de alguna manera, considere compartirlo con sus amigos, familiares, vecinos y colegas. Las recomendaciones personales son una excelente manera de difundir noticias sobre el programa. [00:00:43] Hoy, Aditi Sheshadri nos contará cómo la proyección climática le permite observar grandes áreas de la Tierra durante largos períodos de tiempo para comprender cómo es probable que evolucione el clima. Es el futuro de la proyección climática.  [00:00:58] Antes de comenzar, si estás disfrutando del programa, recuerda compartirlo con tu familia, amigos y colegas. Es una excelente manera de difundir las noticias sobre el programa y de asegurarnos de que todos estén al tanto de El futuro de todo. [00:01:17] Entonces, cuando pensamos en el clima, pensamos en el tiempo. Pensamos en qué temperatura hará hoy, si habrá viento, si lloverá. Pero en un panorama más amplio, tenemos que pensar en el clima a medida que se desarrolla, en todo el mundo. ¿Cuáles serán las temperaturas promedio? ¿Veremos icebergs derritiéndose o formándose? ¿Cuáles serán las corrientes en chorro que mueven aire en grandes volúmenes de una parte del mundo a otra parte del mundo? Eso cae en el área de la proyección climática. La proyección climática nos dice cosas sobre cuándo tendremos ciclones. ¿Tendremos noventa ciclones este año o cincuenta o ciento cincuenta? Nos habla del vórtice polar y dónde podría estar la corriente en chorro y lo que eso podría significar para las tormentas de invierno. Podría decirnos sobre las interacciones costeras del clima con la tierra y muchos otros fenómenos basados ​​en el clima.  [00:02:11] Bueno, Aditi Sheshadri es profesora de ciencias de los sistemas terrestres y miembro del Instituto Woods para el Medio Ambiente de la Universidad de Stanford. Es experta en proyecciones climáticas y utiliza tanto la física como los datos para modelar cómo cambia el clima a lo largo del tiempo y en grandes distancias. Nos va a contar cómo funciona esto en términos de modelar la física en cajas del clima, donde mide la temperatura, la presión y muchos parámetros. Tiene muchas cajas y observa cómo los elementos climáticos se mueven entre las diferentes cajas. También nos va a contar cómo obtuvo algunos datos gratuitos especiales de un experimento de Google que realmente no tenía nada que ver con la proyección climática y, sin embargo, fue una ganancia inesperada para ella.  [00:02:58] Aditi, eres experta en modelado climático, proyección climática, y eso es diferente de la previsión meteorológica. Por eso, quiero empezar preguntando cuál es la diferencia entre proyección climática y previsión meteorológica.  [00:03:10] Aditi Sheshadri: Correcto. Bueno, la proyección o predicción climática y la predicción numérica del tiempo (NWP, por sus siglas en inglés) son en realidad muy similares, ya que resuelven los mismos conjuntos de ecuaciones. Y las ecuaciones son básicamente ecuaciones de conservación. [00:03:26] Entonces, si tienes una pequeña caja de la atmósfera, la masa, el momento y la energía en esa pequeña caja deben conservarse y todo lo que entra debe salir o aumentar ese contenido en la caja. Sin embargo, hay algunas diferencias muy importantes en el caso de la proyección climática, eh, no hay datos que entren en ese modelo normalmente. El modelo simplemente funciona libremente, simplemente se integra hacia adelante en el tiempo, a menudo durante cientos de años.  [00:03:52] En el caso de la predicción meteorológica, el modelo utiliza la asimilación de datos, lo que significa que a medida que el modelo avanza en el tiempo, se le proporcionan todas las fuentes de datos posibles. Y, además, se espera que la predicción meteorológica sea algo precisa, al menos en un rango de diez a catorce días. Quiero decir, cuando dice que va a llover, hay un cincuenta por ciento de posibilidades de que llueva en tres días, tendemos a tomarnos ese número bastante en serio.  [00:04:17] Russ Altman: Sí.  [00:04:17] Aditi Sheshadri: Se espera que sea literalmente cierto hasta cierto punto. En el caso de la predicción climática, preguntar qué tan caluroso será el 1 de junio de 2027 es una pregunta sin sentido, porque básicamente está más allá de la ventana del caos.  [00:04:34] Russ Altman: Sí. [00:04:35] Aditi Sheshadri: Por lo tanto, la predicción climática tiene más que ver con tratar de entender las estadísticas en un clima cambiante. Entonces, una pregunta importante es cómo se verá junio en promedio dentro de cincuenta años. O cuál es el percentil noventa y cinco de lluvia que se espera que sea en promedio en junio, dentro de cincuenta años.  [00:04:55] Russ Altman: Está bien.  [00:04:56] Aditi Sheshadri: Son muy similares, pero tienen diferencias importantes. [00:04:58] Russ Altman:

Leer más »

Cómo impulsar la sostenibilidad y el valor empresarial en la era de la IA

Es hora de integrar la sostenibilidad en la estrategia empresarial En el sentido más amplio, la sostenibilidad consiste en trabajar para preservar operaciones continuas a lo largo del tiempo; un trabajo que nunca termina en un panorama de desafíos y oportunidades en constante cambio. Hoy en día, los líderes empresariales comprenden que la IA representa tanto un desafío como una oportunidad. La IA está acelerando el descubrimiento de medicamentos que salvan vidas y materiales sostenibles, optimizando  las cadenas de suministro y las iniciativas mineras, y apoyando la transición a redes eléctricas más renovables y descentralizadas. Sin embargo, la adopción de la IA, al igual que otras transformaciones importantes, trae consigo nuevos desafíos ambientales que obligan a las empresas a reevaluar y adaptar sus estrategias. El potencial sin explotar de la IA para la sostenibilidad Para los líderes empresariales, la tarea que tienen por delante es cómo maximizar el valor comercial de la IA (entregando los resultados que los clientes necesitan mejor, más rápido y con mayor calidad), al tiempo que se minimizan sus costos e impactos ambientales . Los nuevos datos del informe global de IBM The State of Sustainability Readiness 2024  muestran que las organizaciones comprenden la enorme oportunidad que ofrece la IA, si se implementa correctamente, para impulsar la sostenibilidad organizacional y ambiental. De los encuestados: Al mismo tiempo, el informe muestra que hay espacio (y necesidad) para el crecimiento. Más de la mitad de las organizaciones (56%) aún no utilizan activamente la IA para la sostenibilidad, y el 48% dice que las inversiones en TI para la sostenibilidad son “puntuales” en lugar de provenir de un presupuesto operativo regular. Sin embargo, solo el 50% de los líderes encuestados se sienten preparados para enfrentar riesgos climáticos cada vez más disruptivos. Es hora de integrar la sostenibilidad en la estrategia empresarial Para poner en práctica con éxito la sostenibilidad no se trata de un informe anual, sino de utilizar datos y tecnología para abordar la misión central de una organización con un enfoque inteligente, estratégico y de largo plazo. Los datos muestran que más que nunca las empresas están empezando y deben abordar la sostenibilidad en su sentido más amplio: utilizando todas las herramientas a su disposición para mitigar las amenazas climáticas, apoyar operaciones más optimizadas y rentables y seguir siendo competitivas con sus pares. IBM. C. S. Traducido al español

Leer más »

El VC Martin Casado explica por qué tantas regulaciones de IA son tan erróneas

El problema con la mayoría de los intentos de regular la IA hasta el momento es que los legisladores se están centrando en una mítica experiencia futura de IA, en lugar de comprender verdaderamente los nuevos riesgos que la IA realmente introduce. Así lo afirmó el socio general de Andreessen Horowitz, el VC Martin Casado, ante un público repleto en TechCrunch Disrupt 2024 la semana pasada. Casado, que dirige la práctica de infraestructura de 1.250 millones de dólares de a16z, ha invertido en empresas emergentes de inteligencia artificial como World Labs, Cursor, Ideogram y Braintrust. “Las tecnologías transformadoras y la regulación han sido un tema recurrente durante décadas, ¿no es cierto? Lo que ocurre con todo el discurso sobre la IA es que parece haber surgido de la nada”, dijo a la multitud. “Están tratando de crear regulaciones completamente nuevas sin sacar lecciones de esas lecciones”.  Por ejemplo, dijo: «¿Han visto realmente las definiciones de IA en estas políticas? Es decir, ni siquiera podemos definirla».  Casado se encontraba entre un mar de voces de Silicon Valley que se regocijaron cuando el gobernador de California, Gavin Newsom, vetó la ley de gobernanza de la IA que se había propuesto en el estado, la SB 1047. La ley pretendía poner un llamado interruptor de apagado en los modelos de IA de gran tamaño, es decir, algo que los apagara. Quienes se opusieron al proyecto de ley dijeron que estaba tan mal redactado que, en lugar de salvarnos de un futuro monstruo imaginario de la IA, simplemente habría confundido y obstaculizado la escena de desarrollo de la IA en California. “Con frecuencia escucho a fundadores que se resisten a mudarse aquí debido a lo que esto indica sobre la actitud de California hacia la IA: que preferimos una mala legislación basada en preocupaciones de ciencia ficción en lugar de riesgos tangibles”, publicó en X un par de semanas antes de que el proyecto de ley fuera vetado. Aunque esta ley estatal en particular ya no existe, el hecho de que existiera todavía preocupa a Casado. Le preocupa que se puedan materializar más proyectos de ley, redactados de la misma manera, si los políticos deciden complacer los temores de la población general a la IA, en lugar de regular lo que la tecnología realmente está haciendo.  Entiende la tecnología de IA mejor que la mayoría. Antes de unirse a la histórica firma de capital de riesgo, Casado fundó otras dos empresas, incluida una empresa de infraestructura de redes, Nicira, que vendió a VMware por 1.260 millones de dólares hace poco más de una década. Antes de eso, Casado fue experto en seguridad informática en el Laboratorio Nacional Lawrence Livermore . Dice que muchas de las regulaciones propuestas sobre IA no surgieron ni fueron apoyadas por muchos de los que entienden mejor la tecnología de IA, incluidos académicos y el sector comercial que desarrolla productos de IA. “Hay que tener una noción de riesgo marginal diferente. Por ejemplo, ¿en qué se diferencia la IA actual de alguien que usa Google? ¿En qué se diferencia la IA actual de alguien que simplemente usa Internet? Si tenemos un modelo que muestre en qué se diferencia, se tiene una noción de riesgo marginal y luego se pueden aplicar políticas que aborden ese riesgo marginal”, dijo. «Creo que es demasiado pronto para empezar a aferrarnos a un montón de regulaciones y entender realmente qué vamos a regular», sostiene. El contraargumento —y que varias personas del público mencionaron— fue que el mundo no veía realmente los tipos de daños que Internet o las redes sociales podían causar antes de que estos daños estuvieran sobre nosotros. Cuando se lanzaron Google y Facebook, nadie sabía que dominarían la publicidad en línea o que recopilarían tantos datos sobre las personas. Nadie entendía cosas como el acoso cibernético o las cámaras de eco cuando las redes sociales eran jóvenes. Los defensores de la regulación de la IA a menudo señalan estas circunstancias pasadas y dicen que esas tecnologías deberían haber sido reguladas desde el principio.  ¿La respuesta de Casado? “Hoy en día existe un sólido régimen regulatorio que se ha desarrollado a lo largo de 30 años”, y está bien equipado para construir nuevas políticas para la IA y otras tecnologías. Es cierto que, solo a nivel federal, los organismos reguladores incluyen todo, desde la Comisión Federal de Comunicaciones hasta el Comité de Ciencia, Espacio y Tecnología de la Cámara de Representantes. Cuando TechCrunch le preguntó a Casado el miércoles después de las elecciones si mantiene esta opinión (que la regulación de la IA debería seguir el camino ya trazado por los organismos reguladores existentes), dijo que sí. Pero también cree que no se debería atacar a la IA por los problemas que presentan otras tecnologías, sino que se debería atacar a las tecnologías que causaron los problemas. “Si nos equivocamos en las redes sociales, no podemos solucionarlo con la IA”, dijo. “Los que regulan la IA dicen: ‘Oh, nos equivocamos en las redes sociales, por lo tanto, lo haremos bien en la IA’, lo cual es una declaración sin sentido. Vamos a solucionarlo en las redes sociales”. TechCrunch. J. B. Traducido al español

Leer más »

Charlando sobre chatbots: cómo las herramientas de IA pueden ayudar a los docentes

En este episodio de In Stanford, la profesora asistente de GSE, Dora Demszky, analiza cómo se pueden usar los chatbots para brindar retroalimentación a los docentes. Si bien se ha dicho mucho sobre los posibles efectos positivos y negativos de la inteligencia artificial (IA) generativa en la educación en relación con los estudiantes, se ha dicho menos sobre cómo se pueden utilizar las herramientas de IA para apoyar a los docentes. Dora Demszky, profesora adjunta de la Escuela de Educación de la Universidad de Stanford (GSE), cuya investigación combina el aprendizaje automático, el procesamiento del lenguaje natural, la lingüística y los aportes de los educadores, está trabajando actualmente en un proyecto llamado M-Powering Teachers.(link externo)que proporciona retroalimentación a los profesores en el aula. “Realmente se basa en la idea de que queremos empoderar a los docentes”, dijo Demszky, quien enseñó ciencia de datos educativos en la GSE. “No estamos tratando de decirles qué hacer. Solo les brindamos oportunidades para que reflexionen sobre lo que hicieron”. La herramienta M-Power (la m significa máquina) utiliza el procesamiento del lenguaje natural para analizar las interacciones verbales en el aula y proporciona retroalimentación formativa a los docentes. “Gran parte de la retroalimentación consiste simplemente en brindarles cosas que hicieron, destacar cosas y momentos de su lección para que reflexionen y hacerles buenas preguntas de reflexión y de establecimiento de objetivos para que haya menos posibilidades de riesgos o errores”, dijo. Demzsky se une a los anfitriones Dan Schwartz, decano de GSE, y Denise Pope, profesora titular en School’s In, para hablar sobre la inteligencia artificial como herramienta de retroalimentación positiva y apoyo para los educadores. Su investigación se centra en el desarrollo de métodos de procesamiento del lenguaje natural para respaldar una instrucción equitativa y centrada en el estudiante. En el episodio, explica cómo su equipo está tratando de identificar prácticas como cultivar una mentalidad de crecimiento, usar un lenguaje de apoyo y desarrollar las ideas de los estudiantes como puntos focales para la retroalimentación de los docentes y el aprendizaje profesional.  “Sabemos por la literatura, por décadas de literatura, que cuando los estudiantes se sienten escuchados, cuando sienten que sus ideas importan y que sus maestros las desarrollan en lugar de simplemente encauzarlos hacia una respuesta muy específica, eso realmente facilita el aprendizaje”, dice Demszky. “Por eso, identificamos prácticas relacionadas con eso, como desarrollar ideas, hablar para apoyar la mentalidad, hacer preguntas que sondeen el pensamiento de los estudiantes y luego construimos algoritmos”. Stanford

Leer más »
Scroll al inicio