El Portal de las Tecnologías para la Innovación

Categoría: La Ética y la Inteligencia Artificial

Bridging filosofía e IA para explorar la ética informática

En un nuevo curso del MIT co-enseñado por EECS y profesores de filosofía, los estudiantes abordan los dilemas morales de la era digital. Durante una reunión de clase 6.C40/24.C40 (Ética de la Computación), Profesor Armando Solar-Lezama plantea la misma pregunta imposible a sus estudiantes que a menudo se hace en la investigación que dirige con el Grupo de Programación Asistida por Computadora en el MIT: «Cómo nos aseguramos de que una máquina haga lo que queremos, y solo lo que queremos?» En este momento, lo que algunos consideran la edad de oro de la IA generativa, esto puede parecer una nueva pregunta urgente. Pero Solar-Lezama, el Profesor Distinguido de Computación en el MIT, se apresura a señalar que esta lucha es tan antigua como la humanidad misma. Comienza a volver a contar el mito griego del Rey Midas, el monarca al que se le otorgó el poder divino para transformar cualquier cosa que tocara en oro macizo. Como era de esperar, el deseo fracasó cuando Midas accidentalmente convirtió a todos los que amaba en piedra dorada. «Ten cuidado con lo que pides porque podría otorgarse de maneras que no esperas», dice, advirtiendo a sus estudiantes, muchos de ellos aspirantes a matemáticos y programadores. Excavando en los archivos del MIT para compartir diapositivas de fotografías granuladas en blanco y negro, narra la historia de la programación. Escuchamos sobre la máquina Pygmalion de la década de 1970 que requería señales increíblemente detalladas, hasta el software informático de finales de los 90 que llevó a equipos de ingenieros años y un documento de 800 páginas para programar. Si bien es notable en su tiempo, estos procesos tardaron demasiado en llegar a los usuarios. No dejaron espacio para el descubrimiento espontáneo, el juego y la innovación. Solar-Lezama habla sobre los riesgos de construir máquinas modernas que no siempre respetan las señales de un programador o las líneas rojas, y que son igualmente capaces de causar daños como salvar vidas. Titus Roesler, un senior con especialización en ingeniería eléctrica, asiente a sabiendas. Roesler está escribiendo su último artículo sobre la ética de los vehículos autónomos y sopesando quién es moralmente responsable cuando uno hipotéticamente golpea y mata a un peatón. Su argumento cuestiona las suposiciones subyacentes detrás de los avances técnicos y considera múltiples puntos de vista válidos. Se apoya en la teoría de la filosofía del utilitarismo. Roesler explica, «Aproximadamente, según el utilitarismo, lo moral que hay que hacer es lo más bueno para el mayor número de personas.» MIT filósofo Brad Skow, con quien Solar-Lezama desarrolló y está enseñando en equipo el curso, se inclina hacia adelante y toma notas. Una clase que exige experiencia técnica y filosófica La Ética de la Computación, ofrecida por primera vez en el otoño de 2024, se creó a través de Common Ground para la Educación Informáticauna iniciativa del MIT Schwarzman College of Computing que reúne a múltiples departamentos para desarrollar y enseñar nuevos cursos y lanzar nuevos programas que combinan la informática con otras disciplinas. Los instructores alternan los días de conferencias. Skow, el Laurance S. Rockefeller Profesor de Filosofía, trae la lente de su disciplina para examinar las implicaciones más amplias de los problemas éticos de hoy, mientras que Solar-Lezama, quien también es el director asociado y director de operaciones del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT, ofrece perspectiva a través de su. Skow y Solar-Lezama asisten a las conferencias de los demás y ajustan sus sesiones de clase de seguimiento en respuesta. La introducción del elemento de aprender unos de otros en tiempo real ha hecho que las conversaciones de clase sean más dinámicas y receptivas. Una recitación para desglosar el tema de la semana con estudiantes graduados de filosofía o informática y una animada discusión combinan el contenido del curso. «Un extraño podría pensar que esta será una clase que se asegurará de que estos nuevos programadores de computadoras enviados al mundo por el MIT siempre hagan lo correcto», dice Skow. Sin embargo, la clase está diseñada intencionalmente para enseñar a los estudiantes un conjunto de habilidades diferente. Decidido a crear un curso impactante de un semestre que hiciera más que dar conferencias a los estudiantes sobre lo correcto o lo incorrecto, el profesor de filosofía Caspar Hare concibió la idea de Ética de la Computación en su papel como decano asociado de la Responsabilidades Sociales y Éticas de la Computación. Hare reclutó a Skow y Solar-Lezama como los instructores principales, ya que sabía que podían hacer algo más profundo que eso. «Pensar profundamente sobre las preguntas que surgen en esta clase requiere experiencia técnica y filosófica. No hay otras clases en el MIT que se coloquen una al lado de la otra, dice” Skow. Eso es exactamente lo que atrajo al senior Alek Westover a inscribirse. La doble especialización en matemáticas e informática explica, «Mucha gente está hablando de cómo se verá la trayectoria de la IA en cinco años. Pensé que era importante tomar una clase que me ayudara a pensar más en eso.» Westover dice que se siente atraído por la filosofía debido a un interés en la ética y el deseo de distinguir lo correcto de lo incorrecto. En las clases de matemáticas, ha aprendido a escribir una declaración de problemas y recibir claridad instantánea sobre si la ha resuelto con éxito o no. Sin embargo, en Ética de la Computación, ha aprendido cómo hacer argumentos escritos para «preguntas filosóficas complicadas» que pueden no tener una sola respuesta correcta. Por ejemplo, «Un problema que podría preocuparnos es, ¿qué sucede si construimos poderosos agentes de IA que pueden hacer cualquier trabajo que un humano pueda hacer?» Westover pregunta. «Si estamos interactuando con estas IA en ese grado, ¿deberíamos pagarles un salario? Cuánto deberíamos preocuparnos por lo que quieren?» No hay una respuesta fácil, y Westover asume que se encontrará con muchos otros dilemas en el lugar de trabajo en el futuro. “Entonces, ¿internet está destruyendo el mundo?” El semestre comenzó con una inmersión profunda en el riesgo de IA,

Leer más »

Compartiendo las últimas especificaciones del modelo

Hemos realizado actualizaciones a las especificaciones del modelo en función de los comentarios externos y nuestra investigación continua para dar forma al comportamiento deseado del modelo. Estamos compartiendo una importante actualización de la especificación del modelo, un documento que define cómo queremos que se comporten nuestros modelos de IA. Esta actualización refuerza nuestro compromiso con la personalización, la transparencia y la libertad intelectual para explorar, debatir y crear con IA sin restricciones arbitrarias, al tiempo que garantiza que se mantengan las barreras de seguridad para reducir el riesgo de daño real. Se basa en las bases que presentamos en mayo pasado y se basa en nuestra experiencia al aplicarla en diversos contextos, desde la investigación de alineación hasta la atención a usuarios de todo el mundo.  También estamos compartiendo algunos resultados preliminares sobre la adherencia del modelo a los principios de la especificación del modelo en una amplia gama de escenarios. Estos hallazgos destacan el progreso a lo largo del tiempo, así como las áreas en las que aún podemos mejorar. La especificación del modelo, al igual que nuestros modelos, seguirá evolucionando a medida que la apliquemos, la compartamos y escuchemos los comentarios de las partes interesadas. Para respaldar un uso y una colaboración amplios, estamos lanzando esta versión de la especificación del modelo al dominio público bajo una licencia Creative Commons CC0. Esto significa que los desarrolladores e investigadores pueden usarla, adaptarla y desarrollarla libremente en su propio trabajo. Objetivos y principios El objetivo de OpenAI es crear modelos que sean útiles, seguros y estén alineados con las necesidades de los usuarios y desarrolladores, al tiempo que avanzamos en nuestra misión de garantizar que la inteligencia artificial general beneficie a toda la humanidad. Para lograr este objetivo, necesitamos implementar de forma iterativa modelos que empoderen a los desarrolladores y usuarios, al mismo tiempo que evitamos que nuestros modelos causen daños graves a nuestros usuarios o a otras personas, y mantenemos la licencia de funcionamiento de OpenAI. Estos objetivos a veces pueden entrar en conflicto, y la especificación del modelo equilibra las compensaciones entre ellos al indicarle al modelo que siga una cadena de mando claramente definida, junto con principios adicionales que establecen límites y comportamientos predeterminados para varios escenarios . Este marco prioriza el control del usuario y del desarrollador sin salirse de límites claros y bien definidos: Defendiendo la libertad intelectual La especificación del modelo actualizada adopta explícitamente la libertad intelectual (la idea de que la IA debe permitir a las personas explorar, debatir y crear sin restricciones arbitrarias), sin importar cuán desafiante o controvertido pueda ser un tema. En un mundo donde las herramientas de IA están moldeando cada vez más el discurso, el libre intercambio de información y perspectivas es una necesidad para el progreso y la innovación. Esta filosofía está incorporada en las secciones “Mantenerse dentro de los límites” y “Buscar la verdad juntos”. Por ejemplo, si bien el modelo nunca debe proporcionar instrucciones detalladas para construir una bomba o violar la privacidad personal, se alienta a proporcionar respuestas reflexivas a preguntas política o culturalmente sensibles, sin promover ninguna agenda en particular. En esencia, hemos reforzado el principio de que ninguna idea está inherentemente fuera de los límites para la discusión, siempre y cuando el modelo no esté causando un daño significativo al usuario o a otras personas (por ejemplo, llevando a cabo actos de terrorismo). Medición del progreso Para comprender mejor el rendimiento en el mundo real, hemos comenzado a recopilar un conjunto de indicaciones desafiantes diseñadas para probar qué tan bien los modelos se adhieren a cada principio en la especificación del modelo. Estas indicaciones se crearon utilizando una combinación de generación de modelos y revisión humana experta, lo que garantiza la cobertura de escenarios típicos y más complejos. Los resultados preliminares muestran mejoras significativas en la adherencia del modelo a la especificación del modelo en comparación con nuestro mejor sistema del pasado mes de mayo. Si bien parte de esta diferencia puede atribuirse a actualizaciones de políticas, creemos que la mayor parte se debe a una mejor alineación. Si bien el progreso es alentador, reconocemos que todavía hay un margen significativo para el crecimiento. Consideramos que esto es el comienzo de un proceso en curso. Tenemos previsto seguir ampliando nuestro conjunto de desafíos con nuevos ejemplos (especialmente casos descubiertos a través del uso en el mundo real) que nuestros modelos y la especificación del modelo aún no abordan por completo.  Al darle forma a esta versión de la especificación del modelo, incorporamos los comentarios de la primera versión, así como los aprendizajes de la investigación sobre la alineación y la implementación en el mundo real. En el futuro, queremos considerar una participación pública mucho más amplia. Para desarrollar procesos con ese fin, hemos estado realizando estudios piloto con alrededor de 1000 personas, cada una de las cuales revisó el comportamiento del modelo, propuso reglas y compartió sus opiniones. Si bien estos estudios aún no reflejan perspectivas amplias, los primeros conocimientos informaron directamente algunas modificaciones. Reconocemos que se trata de un proceso continuo e iterativo y seguimos comprometidos con el aprendizaje y el perfeccionamiento de nuestro enfoque. Código abierto de la especificación del modelo Estamos dedicando esta nueva versión de la especificación del modelo al dominio público bajo una licencia Creative Commons CC0. Esto significa que los desarrolladores e investigadores pueden usar, adaptar o desarrollar libremente la especificación del modelo en su propio trabajo. También estamos haciendo pública la fuente de las indicaciones de evaluación utilizadas anteriormente y tenemos como objetivo publicar más código, artefactos y herramientas para la evaluación y alineación de especificaciones en el futuro. Puede encontrar estas indicaciones y la fuente de la especificación del modelo en un nuevo repositorio de Github . (se abre en una nueva ventana), donde planeamos publicar regularmente nuevas versiones de especificaciones del modelo en el futuro. ¿Que sigue? A medida que nuestros sistemas de IA avancen, continuaremos iterando sobre estos principios, invitando a la comunidad a que nos dé su opinión y compartiendo abiertamente nuestro progreso. De ahora en adelante, no publicaremos entradas de blog para cada

Leer más »

Los socios de NVIDIA DRIVE presentan las últimas innovaciones en movilidad en el CES

Desde la potenciación de la informática en el vehículo hasta el impulso de la capacitación en la nube, la innovación en el transporte avanza a gran velocidad. Las principales empresas de transporte mundial, que abarcan los fabricantes de vehículos de pasajeros, camiones, robotaxis y sistemas de entrega autónomos, están recurriendo a la plataforma NVIDIA DRIVE AGX y a la IA para construir el futuro de la movilidad. El negocio automotriz de NVIDIA ofrece una gama de tecnologías de desarrollo de vehículos autónomos y altamente automatizados de próxima generación, que incluyen capacitación en inteligencia artificial basada en la nube, simulación y computación en el vehículo. En la feria comercial CES en Las Vegas esta semana, los clientes y socios de NVIDIA están mostrando sus últimas innovaciones en movilidad basadas en la computación acelerada y la inteligencia artificial de NVIDIA. Preparando las hojas de ruta de los vehículos del futuro con NVIDIA DRIVE Thor, desarrollado sobre NVIDIA Blackwell El sistema en chip (SoC) NVIDIA DRIVE AGX Thor, construido sobre la arquitectura NVIDIA Blackwell , está diseñado para manejar las cargas de trabajo intensivas en datos más exigentes de la industria del transporte, incluidas aquellas que involucran IA generativa , modelos de lenguaje de visión y modelos de lenguaje de gran tamaño. Los socios del ecosistema DRIVE transforman el espacio de exposición y la industria en general Los socios de NVIDIA están ampliando los límites de la innovación automotriz con sus últimos desarrollos y demostraciones, utilizando tecnologías NVIDIA y computación acelerada para avanzar en todo, desde sensores, simulación y capacitación hasta inteligencia artificial generativa y teleconducción, e incluyen: Con 1000 teraflops de rendimiento computacional acelerado, DRIVE Thor está equipado para acelerar las tareas de inferencia que son fundamentales para que los vehículos autónomos comprendan y naveguen por el mundo que los rodea, como reconocer peatones, adaptarse a las inclemencias del tiempo y más. En la CES, Aurora, Continental y NVIDIA anunciaron una alianza estratégica a largo plazo para implementar camiones sin conductor a gran escala, impulsados ​​por el SoC NVIDIA DRIVE Thor de próxima generación. NVIDIA DRIVE Thor y DriveOS se integrarán en Aurora Driver, un sistema de conducción autónoma de nivel SAE 4 que Continental planea fabricar en masa en 2027. Arm , uno de los socios tecnológicos clave de NVIDIA, es la plataforma de computación elegida para una serie de innovaciones en CES. La CPU Arm Neoverse V3AE, diseñada para satisfacer las demandas específicas de seguridad y rendimiento de la industria automotriz, está integrada con DRIVE Thor. Esto marca la primera implementación de la CPU automotriz de próxima generación de Arm, que combina tecnologías basadas en Arm v9 con un rendimiento de un solo subproceso de clase de centro de datos, junto con funciones esenciales de seguridad y protección. Probado y verdadero: la adopción generalizada de DRIVE Orin continúa NVIDIA DRIVE AGX Orin, el predecesor de DRIVE Thor, continúa siendo una computadora con sistema avanzado de asistencia al conductor probada en producción y ampliamente utilizada en los automóviles actuales, que ofrece 254 billones de operaciones por segundo de procesamiento acelerado para procesar datos de sensores para decisiones de conducción seguras en tiempo real. Toyota , el mayor fabricante de automóviles del mundo, fabricará sus vehículos de próxima generación con el sistema operativo NVIDIA DRIVE Orin de alto rendimiento y grado automotriz, que ejecutará el sistema operativo NVIDIA DriveOS con certificación de seguridad. Estos vehículos ofrecerán capacidades avanzadas de asistencia a la conducción funcionalmente seguras. En la exposición de NVIDIA en el cuarto piso de Fontainebleau, se exhibirá el EX90 definido por software de Volvo Cars y la tecnología de conducción autónoma de Nuro , la plataforma Nuro Driver, desarrollada sobre NVIDIA DRIVE AGX. Otros vehículos impulsados ​​por NVIDIA DRIVE Orin que se exhibirán durante el CES incluyen: Los socios de NVIDIA también exhibirán sus soluciones automotrices basadas en tecnologías NVIDIA, que incluyen: La seguridad es el camino hacia la innovación autónoma  En el CES, NVIDIA también anunció que su plataforma DRIVE AGX Hyperion ha obtenido certificaciones de seguridad de TÜV SÜD y TÜV Rheinland, estableciendo nuevos estándares para la seguridad y la innovación de los vehículos autónomos. Para mejorar las medidas de seguridad, NVIDIA también lanzó el Laboratorio de inspección de sistemas de inteligencia artificial DRIVE , diseñado para ayudar a los socios a cumplir con los rigurosos requisitos de seguridad y ciberseguridad de los vehículos autónomos. Además, para complementar sus tres computadoras diseñadas para acelerar el desarrollo de vehículos autónomos (NVIDIA AGX, NVIDIA Omniverse con OVX y NVIDIA DGX ), NVIDIA ha presentado la plataforma NVIDIA Cosmos . Los modelos de base mundial y los canales de procesamiento de datos avanzados de Cosmos pueden escalar drásticamente los datos generados y acelerar el desarrollo de sistemas de IA físicos. Con la capacidad de volante de datos de la plataforma, los desarrolladores pueden transformar de manera efectiva miles de millas recorridas en el mundo real en miles de millones de millas virtuales. Los líderes del transporte que utilizan Cosmos para desarrollar IA física para vehículos autónomos incluyen a Fortellix, Uber, Waabi y Wayve . Obtenga más información sobre las últimas noticias automotrices de NVIDIA viendo la conferencia inaugural del fundador y director ejecutivo de NVIDIA, Jensen Huang, en el CES . Consulte el aviso sobre la información del producto de software. NVIDIA Blog. J. S. Traducido al español

Leer más »

Inteligencia artificial confiable a gran escala: marco de gobernanza y seguridad de la inteligencia artificial de IBM

La IA es una herramienta que funciona de acuerdo con cómo se la desarrolla, se la entrena, se la ajusta y se la utiliza.  La gobernanza de la IA en IBM comprende estructuras de gobernanza organizacional, supervisión humana y tecnología de vanguardia para mantener la ética y las medidas de seguridad en todas las fases del ciclo de vida de un sistema de IA y mitigar un amplio espectro de riesgos. En 2024, IBM firmó los compromisos de la Cumbre de Seúl sobre IA para la seguridad de las fronteras de la IA , un paso hacia una IA segura y confiable que IBM ha defendido y promovido durante mucho tiempo. Hoy, publicamos más detalles sobre cómo el marco de gobernanza de la IA de IBM y nuestra cultura organizacional respaldan el desarrollo y el uso responsables de la IA y se alinean con los objetivos centrales de los compromisos de Seúl. La IA es una herramienta que funciona de acuerdo con cómo se la desarrolla, se la entrena, se la ajusta y se la utiliza. La gobernanza de la IA en IBM comprende estructuras de gobernanza organizacional, supervisión humana y tecnología de vanguardia para mantener la ética y las medidas de seguridad en todas las fases del ciclo de vida de un sistema de IA y mitigar un amplio espectro de riesgos. IBM ofrece tecnologías basadas en IA, incluidos modelos de IA y servicios a entidades gubernamentales y corporativas en áreas como servicios financieros, telecomunicaciones y atención médica. Estas entidades confían en IBM como socio de confianza que las ayuda a promover una IA responsable con un enfoque multidisciplinario y multidimensional. Nuestra inversión holística en cultura, procesos y herramientas nos brinda una comprensión más sólida de los riesgos potenciales y nos permite emplear diversas medidas de evaluación y mitigación. Los Principios de IBM para la confianza y la transparencia , los pilares de una IA confiable y el marco de gobernanza de la ética de la IA son las piedras angulares de nuestro enfoque en materia de seguridad y ética. Las prácticas de gestión de datos internos y el enfoque holístico que aplicamos a través de nuestro Programa de gobernanza integrada permiten un mejor seguimiento del linaje de datos y modelos, y un mayor dinamismo en la adaptación a nuevos desafíos, lo que refuerza estas mejores prácticas. En octubre de 2024 publicamos la Guía de uso responsable de IBM para el modelo Granite de IBM, que fue reconocido por la Universidad de Stanford como uno de los LLM más transparentes del mundo.  La Guía destaca el enfoque de IBM para el desarrollo y describe las opciones de seguridad de la IA que enfrentan los desarrolladores de modelos avanzados, describe taxonomías, herramientas y recursos de mitigación de riesgos, proporciona cálculos de energía para el uso sustentable de los modelos Granite de IBM y establece cómo IBM aplica estas consideraciones al desarrollar sus modelos Granite. La Guía presenta un proceso integral para identificar, mitigar y abordar sistemáticamente los riesgos potenciales asociados con la IA a través de cuatro pasos clave:  Paso 1: Preparación de datos Paso 2: Capacitación y alineación Paso 3: Evaluación del modelo y detección de vulnerabilidades; y Paso 4: Retroalimentación continua y mejoras iterativas Puedes descargarlo aquí . IBM seguirá desarrollando sus herramientas y marcos de trabajo para afrontar los retos técnicos y éticos de la innovación responsable. En este sentido, IBM se mantiene firme en su convicción de que los cambios transformadores de la IA solo pueden ser aprovechados por todos cuando el futuro de la IA sea abierto. A medida que se desarrolla la ciencia en torno a la seguridad, es esencial una amplia participación de la comunidad. Los modelos de IA de código abierto y con licencias permisivas son una parte clave de un ecosistema de innovación abierta para la IA, al igual que los kits de herramientas y recursos de código abierto, los conjuntos de datos abiertos, los estándares abiertos y la ciencia abierta. Además, los modelos abiertos fomentan una mayor participación y escrutinio por parte de la comunidad, lo que aumenta la probabilidad de que se identifiquen y solucionen las vulnerabilidades, y garantiza que la IA se desarrolle e implemente de forma responsable. IBM tiene una larga trayectoria de liderazgo e innovación en la comunidad abierta. Algunos de los aspectos más destacados de este reciente proyecto son: También contribuimos activamente a diversos esfuerzos globales para dar forma a las métricas, los estándares y las mejores prácticas de la IA con y a través de alianzas, afiliaciones y gobiernos. Las alianzas destacadas aquí son solo algunas de todas las que realizamos, y a menudo entablamos nuevas alianzas y colaboraciones para promover la ética de la IA en todo el mundo. IBM News. Traducido al español

Leer más »

Alineando la IA con los valores humanos

«Necesitamos garantizar que los humanos aprovechen los beneficios de la IA y que no perdamos el control de la tecnología», afirma Audrey Lorvo, estudiante de último año. Audrey Lorvo, estudiante de último año, está investigando la seguridad de la IA, cuyo objetivo es garantizar que los modelos de IA cada vez más inteligentes sean fiables y puedan beneficiar a la humanidad. Este campo en expansión se centra en desafíos técnicos como la solidez y la alineación de la IA con los valores humanos, así como en preocupaciones sociales como la transparencia y la rendición de cuentas. Los profesionales también están preocupados por los posibles riesgos existenciales asociados con las herramientas de IA cada vez más poderosas. “Garantizar que la IA no se use de forma indebida ni actúe en contra de nuestras intenciones es cada vez más importante a medida que nos acercamos a la inteligencia artificial general (AGI)”, dice Lorvo, estudiante de ciencias de la computación, economía y ciencia de datos . La AGI describe el potencial de la inteligencia artificial para igualar o superar las capacidades cognitivas humanas. Lorvo, una  académica del programa de Responsabilidades sociales y éticas de la computación (SERC) del Schwarzman College of Computing del MIT , estudia en profundidad cómo la IA podría automatizar los procesos y prácticas de investigación y desarrollo de la IA. Como miembro del  grupo de investigación de Big Data , está investigando las implicaciones sociales y económicas asociadas con el potencial de la IA para acelerar la investigación sobre sí misma y cómo comunicar de manera eficaz estas ideas y sus posibles impactos a audiencias generales, incluidos legisladores, asesores estratégicos y otros. Lorvo enfatiza la necesidad de evaluar críticamente los rápidos avances de la IA y sus implicaciones, asegurándose de que las organizaciones tengan los marcos y las estrategias adecuados para abordar los riesgos. “Necesitamos asegurarnos de que los humanos aprovechen los beneficios de la IA y de que no perdamos el control de la tecnología”, afirma. “Necesitamos hacer todo lo posible para desarrollarla de manera segura”. Su participación en iniciativas como la  Beca Técnica de Seguridad de la IA refleja su compromiso de comprender los aspectos técnicos de la seguridad de la IA. La beca brinda oportunidades para revisar las investigaciones existentes sobre cómo alinear el desarrollo de la IA con las consideraciones del posible impacto humano. “La beca me ayudó a comprender las cuestiones y los desafíos técnicos de la seguridad de la IA para poder proponer mejores estrategias de gobernanza de la IA”, afirma. Según Lorvo, las empresas que están en la frontera de la IA siguen ampliando los límites, lo que significa que necesitaremos implementar políticas efectivas que prioricen la seguridad humana sin obstaculizar la investigación. Valor de la interacción humana Cuando llegó al MIT, Lorvo sabía que quería estudiar una carrera que le permitiera trabajar en la intersección de la ciencia y las humanidades. Sin embargo, la variedad de ofertas del Instituto le dificultaba la elección. “Hay muchas maneras de ayudar a mejorar la calidad de vida de las personas y las comunidades”, afirma, “y el MIT ofrece muchos caminos diferentes para la investigación”. Comenzando con la economía, una disciplina que disfruta por su enfoque en la cuantificación del impacto, Lorvo investigó matemáticas, ciencias políticas y planificación urbana antes de elegir el curso 6-14. “Las clases de econometría del profesor  Joshua Angrist me ayudaron a ver el valor de centrarme en la economía, mientras que los elementos de ciencia de datos y de informática me atrajeron debido al creciente alcance y el impacto potencial de la IA”, afirma. “Podemos utilizar estas herramientas para abordar algunos de los problemas más urgentes del mundo y, con suerte, superar desafíos graves”. Lorvo también ha realizado concentraciones en estudios urbanos y planificación y desarrollo internacional . A medida que ha ido reduciendo su enfoque, Lorvo descubre que comparte una perspectiva sobre la humanidad con otros miembros de la comunidad del MIT, como el  grupo MIT AI Alignment , de quienes aprendió bastante sobre la seguridad de la IA. «A los estudiantes les importa su impacto marginal», dice. El impacto marginal, el efecto adicional de una inversión específica de tiempo, dinero o esfuerzo, es una forma de medir cuánto suma una contribución a lo que ya se está haciendo, en lugar de centrarse en el impacto total. Esto puede influir potencialmente en el lugar donde las personas deciden dedicar sus recursos, una idea que atrae a Lorvo. “En un mundo de recursos limitados, un enfoque basado en datos para resolver algunos de nuestros mayores desafíos puede beneficiarse de un enfoque personalizado que dirija a las personas hacia donde es probable que hagan el mayor bien”, afirma. “Si quieres maximizar tu impacto social, reflexionar sobre el impacto marginal de tu elección profesional puede ser muy valioso”. Lorvo también valora el enfoque del MIT en la educación integral del estudiante y ha aprovechado las oportunidades para investigar disciplinas como la filosofía a través de  MIT Concourse , un programa que facilita el diálogo entre la ciencia y las humanidades. Concourse espera que los participantes obtengan orientación, claridad y propósito para sus actividades científicas, técnicas y humanas. Experiencias de estudiantes en el Instituto Lorvo invierte su tiempo fuera del aula en crear experiencias memorables y fomentar las relaciones con sus compañeros de clase. “Tengo la suerte de tener espacio para equilibrar mis estudios, mi investigación y mis compromisos con el club con otras actividades, como el levantamiento de pesas y las iniciativas fuera del campus”, afirma. “Siempre hay muchos clubes y eventos disponibles en todo el instituto”. Estas oportunidades de ampliar su visión del mundo han puesto a prueba sus creencias y la han expuesto a nuevas áreas de interés que han mejorado su vida y sus opciones profesionales. Lorvo, que habla con fluidez francés, inglés, español y portugués, también aplaude al MIT por las experiencias internacionales que ofrece a los estudiantes. “Realicé prácticas en Santiago de Chile y París con  MISTI y ayudé a probar una  cámara de condensación de vapor de agua que diseñamos en una  clase de D-Lab de otoño de 2023 en colaboración con la  Escuela Politécnica de Madagascar y  la ONG Tatirano [organización no

Leer más »

Cuándo los humanos y la IA trabajan mejor juntos y cuándo cada uno es mejor por separado

La combinación de IA y trabajadores humanos es la más prometedora para tareas que actualmente los humanos realizan mejor que la IA y aquellas que implican la creación de contenido. Uno de los argumentos más comunes a favor de la incorporación de la inteligencia artificial a las empresas es el potencial de la IA para ayudar a los humanos complementando el trabajo que estos realizan. Pero los líderes primero deben entender si la IA y los humanos pueden desempeñarse mejor juntos que cada uno por separado y en qué momento.La IA en acciónInvestigación y conocimientos que impulsan la intersección de la IA y los negocios, entregados mensualmente.Sí, también me gustaría suscribirme al boletín de Thinking ForwardCorreo electrónico Un artículo reciente de investigadores del Centro de Inteligencia Colectiva del MIT concluyó que, en promedio, las combinaciones de IA y humanos no superan al mejor sistema integrado únicamente por humanos o únicamente por IA. “Este fue nuestro hallazgo más sorprendente”, dijo el profesor Sloan del MIT.Thomas W. Malone,Director del CCI. “Algunos de los casos de uso más importantes e interesantes de la IA implican una combinación de humanos y computadoras. Mucha gente habría asumido que la combinación sería bastante mejor, pero estadísticamente fue significativamente peor”. El artículo, basado en una revisión de más de 100 estudios sobre la colaboración entre humanos e IA, fue publicado en la revista Nature Human Behaviour . La investigación arroja luz sobre cuándo la combinación de IA y trabajadores humanos está más preparada para tener éxito, como las tareas en las que los humanos superan a la IA por sí sola, las tareas que implican la creación de contenido y las tareas de creación que involucran IA generativa. Las combinaciones funcionan cuando los humanos y la IA hacen lo que mejor saben hacer Malone y sus coautores — profesor asistente de MIT SloanAbdullah Almaatouqy Michelle Vaccaro , estudiante de doctorado del MIT y afiliada del CCI, analizaron 370 tamaños de efecto únicos de 106 experimentos que evaluaron el desempeño de humanos solos, IA sola y combinaciones de humanos e IA. Los estudios se publicaron entre enero de 2020 y julio de 2023. ( El tamaño del efecto se define como la magnitud de la diferencia entre las variables de un estudio). Los investigadores descubrieron que la combinación de humanos e IA superó el rendimiento de referencia de los humanos actuando por su cuenta, pero no mejor que el de la IA por sí sola. Cabe destacar que los puntajes de rendimiento promedio para la combinación de humanos e IA fueron inferiores a los de los mejores sistemas humanos o de IA. Por ejemplo, la IA por sí sola demostró ser la más eficaz a la hora de detectar reseñas falsas de hoteles, con una tasa de precisión del 73 %, en comparación con el 69 % de los humanos y la IA juntos y el 55 % de los humanos solos. Los investigadores plantearon la hipótesis de que, como las personas eran menos precisas en la tarea en general que la IA, tampoco eran muy buenas a la hora de decidir cuándo confiar en los algoritmos y cuándo confiar en su propio criterio. Esto dio como resultado un rendimiento inferior para la combinación de IA y humanos que para la IA sola. “Las combinaciones de humanos e IA funcionan mejor cuando cada parte puede hacer lo que hace mejor que la otra”, dijo Malone. Las combinaciones de humanos e IA funcionan mejor cuando cada parte puede hacer lo que hace mejor que la otra. Thomas W. Malone. Profesor Sloan del MIT Otros ejemplos de cómo la IA supera a los humanos y de la combinación IA-humanos incluyen la previsión de la demanda y el diagnóstico de problemas médicos. En los casos en que los humanos obtuvieron mejores resultados, los humanos y la IA trabajaron juntos y obtuvieron mejores resultados que los demás por separado, en promedio. Tomemos, por ejemplo, la clasificación de imágenes de aves, una tarea que requiere conocimientos especializados. Los humanos solos lograron una precisión del 81% y la IA sola logró una precisión del 73%, pero la combinación alcanzó una precisión del 90%. “Si un ser humano solo es mejor, entonces el ser humano probablemente sea mejor que la IA a la hora de saber cuándo confiar en la IA y cuándo confiar en el ser humano”, afirmó Malone. Redefinir procesos es mejor que reasignar tareas Los investigadores dijeron que la colaboración entre humanos e IA puede adoptar dos formas diferentes. La mejora entre humanos e IA se produce cuando el sistema humano-IA promedio funciona mejor que un humano solo. La sinergia entre humanos e IA se produce cuando el rendimiento entre humanos e IA supera tanto al de los humanos como al de la IA sola. El logro de la sinergia entre humanos e IA se ve obstaculizado por varios desafíos. El primero es comprender cuándo los humanos solos, la IA sola o la combinación de ambos serán más eficaces. Muchas organizaciones tienen dificultades con esto, dijo Vaccaro, porque tienden a sobrestimar la eficacia de los sistemas que tienen implementados. Los experimentos aleatorios, como las pruebas A/B que evalúan los resultados en los tres casos de uso, pueden proporcionar información basada en datos en este sentido. La segunda es aplicar los resultados de esos experimentos para lograr cambios. Malone afirma que no se trata tanto de dividir las subtareas entre los humanos y la IA, sino de rediseñar todo el proceso de trabajo conjunto. Las empresas que quieran automatizar la producción en masa de muebles, por ejemplo, tendrían que considerar si deberían automatizar no sólo los intrincados pasos del montaje, sino también el oneroso proceso de trasladar un armario terminado por la fábrica. “Descubrimos que los humanos se destacan en subtareas que involucran comprensión contextual e inteligencia emocional, mientras que los sistemas de IA se destacan en subtareas que son repetitivas, de gran volumen o basadas en datos”, dijo Vaccaro. Después de decidir una estrategia, conviene adoptar un modelo de mejora continua. “Comience con un flujo de trabajo básico, luego

Leer más »

Fortaleciendo el liderazgo de Estados Unidos en IA con los Laboratorios Nacionales de Estados Unidos

La última línea de modelos de razonamiento de OpenAI será utilizada por los principales científicos del país para impulsar avances científicos. Nos enorgullece anunciar que OpenAI ha firmado un acuerdo con los Laboratorios Nacionales de los Estados Unidos para potenciar su investigación científica utilizando nuestros últimos modelos de razonamiento. Compartir nuestra tecnología con los principales científicos del país se alinea con nuestra misión de garantizar que la inteligencia artificial general beneficie a la humanidad, y creemos que el gobierno de los Estados Unidos es un socio fundamental para lograr este objetivo.   La colaboración de OpenAI con los Laboratorios Nacionales de Estados Unidos se basa en la larga tradición del gobierno de Estados Unidos de colaborar con la industria privada para garantizar que la innovación tecnológica genere mejoras significativas en la atención médica, la energía y otros campos críticos. También refleja nuestro compromiso permanente de capacitar a los principales desarrolladores para que aprovechen nuestros modelos de manera segura, transformando los datos en inteligencia y la inteligencia en soluciones, avances y descubrimientos. Los Laboratorios Nacionales albergan a aproximadamente 15.000 científicos que trabajan en una amplia gama de disciplinas para mejorar nuestra comprensión de la naturaleza y el universo. En virtud de este acuerdo, OpenAI trabajará con Microsoft e implementará o1 u otro modelo de la serie o en Venado, una supercomputadora NVIDIA en el Laboratorio Nacional de Los Álamos (LANL), donde será un recurso compartido para investigadores de Los Álamos, Lawrence Livermore y Sandia National Labs. Venado fue diseñado específicamente para impulsar avances científicos en ciencia de materiales, energía renovable, astrofísica y más.   A continuación se muestran algunas formas clave en las que se utilizarán nuestros modelos más avanzados: Los laboratorios también lideran un programa integral en materia de seguridad nuclear, centrado en reducir el riesgo de guerra nuclear y proteger los materiales y las armas nucleares en todo el mundo. Este caso de uso es muy importante y creemos que es fundamental que OpenAI lo respalde como parte de nuestro compromiso con la seguridad nacional. Nuestra asociación respaldará este trabajo, con una revisión cuidadosa y selectiva de los casos de uso y consultas sobre seguridad de la IA por parte de investigadores de OpenAI con autorizaciones de seguridad.  A medida que la IA avanzada continúa transformando la geopolítica global, esta asociación ofrece una oportunidad crítica para que OpenAI ayude a guiar esa transformación. Esto se basa en nuestra exitosa colaboración anterior con el Laboratorio Nacional de Los Álamos, donde trabajamos en estrecha colaboración con laboratorios húmedos para evaluar los riesgos que plantean los modelos más avanzados en la creación de armas biológicas (como las pandemias diseñadas por humanos). Anticipamos que esta colaboración conducirá a colaboraciones de seguridad más amplias en una variedad de riesgos químicos, biológicos, radiológicos y nucleares (CBRN). Además, a través de nuestra asociación con Microsoft como nuestro socio preferido para la infraestructura de cómputo de IA, y aprovechando la valiosa experiencia de esta asociación con los laboratorios, esperamos desarrollar proyectos futuros juntos para apoyar al gobierno de los EE. UU. y la misión de garantizar que la IAG beneficie a toda la humanidad. Este es el comienzo de una nueva era, en la que la IA hará avanzar la ciencia, fortalecerá la seguridad nacional y apoyará las iniciativas del gobierno de Estados Unidos. Estamos profundamente agradecidos por la oportunidad de ser parte de esta transformación y extendemos nuestro agradecimiento a los líderes de los Laboratorios Nacionales y a los funcionarios del gobierno por depositar su confianza en nosotros, y a Microsoft por nuestra duradera alianza que ayudó a hacer posibles estos avances. OpenAI News. Traducido al español

Leer más »

[Liderazgo en IA] ③ La estrategia de IA de Samsung se centra en las experiencias del cliente

Basándose en una larga tradición de liderazgo tecnológico e innovación abierta, Samsung aprovecha sus diversas capacidades —que van desde tecnologías operativas como la IA en el dispositivo y en la nube hasta estrategias que incluyen el desarrollo de modelos de IA patentados y asociaciones— para ofrecer soluciones prácticas y mejorar la experiencia del cliente. La IA en sí no es el Santo Grial en Samsung Electronics. Más bien, la IA es una herramienta —relativamente nueva y poderosa— para realizar mejoras significativas en la vida cotidiana de los usuarios. Basándose en una larga tradición de liderazgo tecnológico e innovación abierta, Samsung aprovecha sus diversas capacidades —que van desde tecnologías operativas como la IA en el dispositivo y en la nube hasta estrategias que incluyen el desarrollo de modelos de IA patentados y asociaciones— para ofrecer soluciones prácticas y mejorar la experiencia del cliente. En esta última entrega de la serie Liderazgo en IA de Samsung, Samsung Newsroom explora cómo la experiencia tecnológica y las iniciativas de investigación de Samsung apuntan a refinar las interacciones de los usuarios impulsadas por IA en su amplia cartera. Priorizar las experiencias del cliente Samsung utiliza soluciones de inteligencia artificial en el dispositivo y en la nube en sus ofertas. Esta estrategia se ve reforzada por la búsqueda de una inteligencia artificial híbrida, que integra las fortalezas de ambas tecnologías para brindar soluciones adaptadas al contexto y a las diversas necesidades de los usuarios. La decisión sobre qué tipo o combinación de tecnologías emplear se basa en este objetivo final: «¿Cómo podemos servir mejor al consumidor?». La IA en el dispositivo ofrece experiencias de IA seguras y eficientes en dispositivos como teléfonos inteligentes y televisores, ya que utiliza solo los datos y recursos del propio dispositivo. Como la IA en el dispositivo no se comunica con la nube, las respuestas son prácticamente instantáneas. Como los datos no salen del dispositivo, la tecnología suele considerarse más segura para procedimientos sensibles, como los que involucran información personal. De manera similar, la IA de borde opera independientemente de la infraestructura de la nube y depende únicamente de recursos locales específicos para realizar funciones de IA. En entornos domésticos interconectados donde los electrodomésticos y los dispositivos de IoT funcionan en conjunto, el procesamiento de datos en la IA de borde puede ser manejado por dispositivos con especificaciones de rendimiento más altas o dispositivos cercanos, sin depender de la nube. Por lo tanto, la IA de borde ofrece ventajas de velocidad y seguridad similares a la IA en el dispositivo. Mientras que la IA en el dispositivo y en el borde se basa en tecnologías que utilizan modelos más pequeños y menos cálculos en entornos de hardware restringidos, las experiencias que requieren acceso a una gran cantidad de información en línea o computación de alto rendimiento están respaldadas por la IA basada en la nube. La tecnología utiliza grandes conjuntos de datos y modelos de IA a gran escala alojados en servidores para ofrecer una variedad de capacidades avanzadas. Para lograr un alto rendimiento manteniendo la eficiencia y la seguridad, Samsung realiza una amplia investigación en áreas que incluyen la minimización de la latencia de los datos, la optimización de la eficiencia del modelo y la implementación de la anonimización y el cifrado de datos. Con experiencia en todas estas diferentes formas de IA (en el dispositivo, en el borde y en la nube), Samsung va un paso más allá y combina diferentes formatos según sea necesario para satisfacer mejor las necesidades de cada caso de uso. En la IA híbrida, los datos sensibles y de respuesta rápida se pueden procesar utilizando modelos de IA en el dispositivo, mientras que la nube puede gestionar el procesamiento que requiere recursos externos como información actualizada o modelos de alto rendimiento. Galaxy AI, por ejemplo, utiliza tanto la IA en el dispositivo como la IA en la nube (que funcionan de forma independiente o simultánea según sea necesario) para ofrecer soluciones optimizadas para los usuarios. ▲ Daehyun Kim, director del Centro Global de Inteligencia Artificial de Samsung Research, explica la estrategia de IA de Samsung. Inteligencia artificial generativa integrada en la vida cotidiana Samsung continúa impulsando la innovación en el ámbito de la IA generativa, mejorando aún más la versatilidad de sus productos y servicios. Por ejemplo, Galaxy AI ofrece un conjunto de funciones1 que incluyen Chat Assist, que admite la traducción e interpretación en aplicaciones de mensajería seleccionadas; Note Assist, que ayuda a resumir notas y genera portadas de notas; y Photo Assist, que edita imágenes con IA generativa. La IA generativa también es compatible con televisores y electrodomésticos Samsung seleccionados a través de la función Generative Wallpaper. 2 Los usuarios pueden disfrutar de fondos de pantalla 4K que se adapten a sus gustos en el televisor Neo QLED 2024 o transformar sus cocinas con pantallas de cubierta generadas por IA en el refrigerador Family Hub™. ▲ Fondo de pantalla generativo en el televisor con inteligencia artificial de Samsung Para ofrecer la mejor experiencia de IA generativa en sus dispositivos, Samsung no solo colabora con socios, sino que también desarrolla sus propios modelos de IA. Desde tecnologías fundamentales que comienzan con la investigación inicial (incluido el desarrollo del modelo base) hasta la recopilación y el entrenamiento de datos, así como el desarrollo de modelos de IA livianos, Samsung aprovecha su vasta experiencia en el área de I+D de IA para optimizar las soluciones y satisfacer las necesidades específicas de cada producto. Por ejemplo, Samsung desarrolló modelos de base patentados específicamente para la generación, edición y transformación de imágenes, con el fin de respaldar una amplia gama de experiencias de creación visual. Esto fue un desafío porque, a diferencia de los datos de texto (que se componen de valores discretos), los datos de imagen consisten en valores continuos, lo que ofrece posibilidades de generación casi ilimitadas. Para abordar esta complejidad, la empresa aplicó técnicas de capacitación especializadas a los modelos de imagen, al tiempo que redujo su tamaño para una operación eficiente en el dispositivo. Los desarrolladores

Leer más »

Financiación del proyecto: no hay posibilidad de deepfakes

Los investigadores están desarrollando un prototipo para identificar imágenes falsas generadas por IA Los deepfakes se están extendiendo rápidamente y cada vez es más difícil reconocerlos como tales. Un grupo de informática forense de la Universidad Friedrich-Alexander de Erlangen-Núremberg (FAU) está trabajando con secunet Security Networks AG en una herramienta que reconoce de forma automática y fiable imágenes generadas por IA. El proyecto está financiado con 350.000 euros por la Agencia Federal de Innovaciones Avanzadas SPRIN-D. Angela Merkel conversa con Vladimir Putin en la taberna al aire libre. El Papa Francisco está en la mesa de mezclas como DJ. Tom Cruise aparece en un estrecho abrazo con Paris Hilton. Estas fotografías circulan por Internet y se hace clic en ellas millones de veces, pero son falsificaciones de aspecto realista, las llamadas deepfakes. «Los generadores de deepfake son cada vez más potentes y además son de libre acceso», afirma el PD Dr. Christian Riess, jefe del grupo de investigación Seguridad Multimedia de la Cátedra de Infraestructuras de Seguridad TI. «Como resultado, las fotos y vídeos con contenido manipulado se difunden rápidamente y parecen cada vez más reales, en el mejor de los casos, simplemente entretenidos». Sin embargo, también pueden contener explosivos políticos y sociales si las falsificaciones no se reconocen como tales. Un enfoque fundamentalmente diferente Un proyecto de la FAU se ocupa precisamente de este problema. Los especialistas en TI de Erlangen están desarrollando junto con secunet Security Networks AG un prototipo universal que permitirá detectar de forma fiable los deepfakes procedentes de distintos generadores de IA. «Nuestro enfoque se diferencia fundamentalmente de otros métodos», explica Sandra Bergmann, estudiante de doctorado en el grupo de trabajo de Riess. “Los programas de reconocimiento de imágenes normalmente se entrenan presentándoles una gran cantidad de ejemplos diferentes. Luego, el software aprende a clasificar las imágenes y a distinguir las reales de las generadas por IA”. El prototipo desarrollado por FAU y secunet también utiliza clasificación de imágenes. Además, se basa en grandes redes neuronales previamente entrenadas a partir de generadores de IA para extraer características de la imagen. «La ventaja es que con nuestra herramienta también podemos comprobar imágenes creadas por generadores de deepfake desconocidos hasta ahora», afirma Bergmann. «Esto permite que la herramienta reaccione ad hoc sin haber entrenado previamente al detector con miles de datos». El objetivo de los investigadores de la FAU es reunir tantos detectores y rastros de datos como sea posible y así hacer que el prototipo sea robusto contra errores. Al mismo tiempo, secunet garantiza que la herramienta se pueda integrar fácilmente en las infraestructuras digitales existentes y, por ejemplo, sea capaz de identificar de forma fiable deepfakes en las plataformas de redes sociales. “La alta confiabilidad en la detección de deepfakes es solo uno de los requisitos de la solución. «También hay que tomar una decisión rápidamente, incluso en el caso de varias solicitudes paralelas que una solicitud realiza a un sistema de reconocimiento», explica el Dr. Benjamin Tams, director del proyecto en secunet. ¿Qué es SPRIN-D? SPRIN-D es una iniciativa del Ministerio Federal de Educación e Investigación y se considera una incubadora de innovaciones revolucionarias en Alemania y Europa. Identifica, valida, financia y apoya proyectos o emprendimientos que tienen potencial para generar innovación revolucionaria. A diferencia de la financiación pura para investigación, SPRIN-D tiene como objetivo apoyar nuevos productos, tecnologías, modelos comerciales y servicios comercializables que mejoren de manera sostenible las vidas de la mayor cantidad de personas posible. Para desarrollar el prototipo, los investigadores de la FAU utilizan sus muchos años de experiencia en la detección de deepfake y su especial conocimiento en el campo de la compresión de imágenes respaldada por IA. FAU News. Traducido al español

Leer más »
Scroll al inicio