El Portal de las Tecnologías para la Innovación

Cómo regular la IA

Académicos de los ámbitos de negocios, economía, atención médica y políticas ofrecen perspectivas sobre áreas que merecen una mirada más atenta.

El ritmo del desarrollo de la IA es vertiginoso, y sus efectos en la economía, la educación, la medicina, la investigación, el empleo, el derecho y el estilo de vida serán de gran alcance y generalizados. Están surgiendo iniciativas para iniciar la regulación a nivel federal y estatal.

En julio, el presidente Trump reveló órdenes ejecutivas y un plan de acción de IA destinado a acelerar el desarrollo de la inteligencia artificial y consolidar a Estados Unidos como líder mundial en esta tecnología.

El conjunto de cambios prohíbe al gobierno federal comprar herramientas de IA que considere ideológicamente sesgadas, alivia las restricciones al proceso de permisos para nuevos proyectos de infraestructura de IA y promueve la exportación de productos de IA estadounidenses a todo el mundo, entre otros avances.

La Conferencia Nacional de Legislaturas Estatales informa que en la sesión de 2025 los 50 estados consideraron medidas relacionadas con la IA.

Los investigadores del campus de una variedad de campos ofrecen sus puntos de vista sobre áreas que merecen la pena considerar.


Ilustración de billetera y redes de computadoras.
Ilustraciones fotográficas de Liz Zonarich/Harvard Staff

Riesgos de estafas ilegales y colusiones para fijar precios

Eugene Soltes es profesor de Administración de Empresas de la familia McLean en la Escuela de Negocios de Harvard.

A medida que la inteligencia artificial se vuelve más omnipresente dentro de la infraestructura de los negocios y las finanzas, estamos viendo rápidamente el potencial de riesgos sin precedentes que nuestros marcos legales e instituciones corporativas no están preparados para abordar.

Consideremos la fijación de precios algorítmica. Las empresas que implementan IA para optimizar sus ganancias ya pueden observar cómo los bots «aprenden» de forma independiente que la colusión de precios genera mayores ganancias. Cuando los algoritmos de las empresas se coordinan tácitamente para inflar los precios, ¿quién asume la responsabilidad: las empresas, los proveedores de software o los ingenieros? La práctica antimonopolio actual no ofrece una respuesta clara.

El peligro aumenta cuando el poder de optimización de la IA apunta directamente al comportamiento humano.

Las investigaciones confirman que la IA ya posee capacidades persuasivas que superan a los negociadores expertos. Aplicada a poblaciones vulnerables, la IA transforma las estafas tradicionales en estrategias personalizadas y adaptadas a ella.

Los “fraudes de matanza de cerdos” [en los que los perpetradores generan confianza en las víctimas con el tiempo] que antes requerían equipos de operadores humanos se pueden automatizar, personalizar e implementar en masa, engañando incluso a los más escrupulosos de nosotros con audio y video ultrafalsos.

Las investigaciones confirman que la IA ya posee capacidades persuasivas que superan a los negociadores expertos. Aplicada a poblaciones vulnerables, la IA transforma las estafas tradicionales en estrategias personalizadas y adaptadas a ella.

Lo más alarmante es la perspectiva de que los agentes de IA tengan acceso directo a los sistemas financieros, en particular a las redes de criptomonedas.

Imaginemos un agente de IA con acceso a una billetera de criptomonedas y la instrucción de «aumentar su cartera». A diferencia de la banca tradicional, donde las transacciones pueden congelarse y revertirse, una vez que una IA implementa un contrato inteligente fraudulento o inicia una transacción perjudicial, ninguna autoridad puede detenerla.

La combinación de contratos inteligentes inmutables y pagos criptográficos autónomos crea posibilidades extraordinarias, incluidos sistemas de recompensas automatizados por violencia en el mundo real que se ejecutan sin intervención humana.

Estos escenarios no son especulaciones lejanas; son realidades emergentes que nuestras instituciones actuales no pueden prevenir ni procesar adecuadamente. Sin embargo, existen soluciones: monitoreo criptográfico mejorado, interruptores de seguridad obligatorios para agentes de IA y requisitos de intervención humana para los modelos.

Para afrontar estos desafíos se necesita la colaboración entre los innovadores que diseñan la tecnología de IA y los gobiernos facultados para limitar su potencial daño.

La pregunta no es si estos riesgos se materializarán, sino si actuaremos antes de que lo hagan.


Ilustración de una persona usando una computadora portátil.

Elegir el camino del pluralismo

Danielle Allen es profesora de la Universidad James Bryant Conant y directora del Proyecto de Conocimiento Democrático y del Laboratorio Allen para la Renovación de la Democracia en la Escuela Kennedy de Harvard. 

Danielle Allen.
Fotografía de Melissa Blackall

Como lo ven quienes trabajan en mi laboratorio HKS, el Laboratorio Allen para la Renovación de la Democracia , actualmente existen en el panorama global tres paradigmas para gobernar la IA: un paradigma aceleracionista, un paradigma de altruismo efectivo y un paradigma de pluralismo.

En el paradigma aceleracionista, el objetivo es moverse rápido y romper cosas, acelerando el desarrollo tecnológico tanto como sea posible para que podamos llegar a nuevas soluciones a los problemas globales (desde el trabajo hasta el cambio climático), mientras organizamos al máximo el mundo en torno al éxito de individuos con un alto coeficiente intelectual.

Se reemplaza la mano de obra; la Tierra se vuelve innecesaria gracias al acceso a Marte; personas inteligentes usan la selección genética impulsada por la tecnología para producir bebés aún más inteligentes.

En el paradigma del altruismo efectivo, existe igualmente un objetivo de moverse rápido y romper cosas, pero también un reconocimiento de que reemplazar el trabajo humano con tecnología dañará a la gran masa de la humanidad, por lo que el compromiso con el desarrollo tecnológico va de la mano con un plan para redistribuir las ganancias de productividad que fluyen a las empresas tecnológicas con fuerzas laborales comparativamente pequeñas al resto de la humanidad a través de políticas de ingresos básicos universales.

En el paradigma del pluralismo, el desarrollo tecnológico no se centra en superar y reemplazar la inteligencia humana, sino en complementar y ampliar los múltiples o plurales tipos de inteligencia humana con tipos igualmente plurales de inteligencia de las máquinas.

El propósito aquí es activar y extender el pluralismo humano en beneficio de la creatividad, la innovación y la riqueza cultural, integrando al mismo tiempo plenamente a la amplia población a la economía productiva.

El reciente compromiso de Pensilvania de implementar tecnología de manera que empodere a los humanos en lugar de reemplazarlos es un ejemplo, como lo es la recientemente aprobada Ley de Elección Digital de Utah , que coloca la propiedad de los datos en las plataformas de redes sociales nuevamente en manos de los usuarios individuales y exige la interoperabilidad de las plataformas, trasladando el poder de las corporaciones tecnológicas a los ciudadanos y consumidores.

Si Estados Unidos quiere ganar la carrera de la IA como el tipo de sociedad que somos —una sociedad libre de ciudadanos libres, iguales y autónomos—, entonces realmente necesitamos adoptar el tercer paradigma. No descartemos la democracia y la libertad al desechar la ideología progresista.


Ilustración del bienestar mental.

Barandillas para asesoramiento y apoyo en materia de salud mental

Ryan McBain es profesor asistente en la Facultad de Medicina de Harvard e investigador principal de políticas en RAND.

A medida que más personas, incluidos los adolescentes, recurren a la IA para obtener asesoramiento sobre salud mental y apoyo emocional, la regulación debería tener dos objetivos: reducir los daños y promover el acceso oportuno a recursos basados ​​en la evidencia. La gente no dejará de hacer preguntas sensibles a los chatbots. Las políticas deberían hacer que esas interacciones sean más seguras y útiles, no intentar eliminarlas.

Ya existen algunas barandillas.

Sistemas como ChatGPT y Claude a menudo rechazan sugerencias de suicidio “de muy alto riesgo” y dirigen a los usuarios a la línea de ayuda para suicidios y crisis 988.

Sin embargo, muchos escenarios tienen matices. En un contexto como aprender nudos de supervivencia para una acampada, un chatbot podría describir cómo atar una soga; en un contexto como adelgazar para una boda, podría sugerir tácticas para una dieta drástica.

Las prioridades regulatorias deben reflejar el nivel de matices de esta nueva tecnología.

La gente no dejará de hacer preguntas sensibles a los chatbots. Las políticas deberían hacer que esas interacciones sean más seguras y útiles.

En primer lugar, se requieren parámetros estandarizados, basados ​​en la experiencia clínica, para las indicaciones relacionadas con el suicidio, con informes públicos. Estos parámetros deben incluir diálogos de ida y vuelta que proporcionen suficiente contexto para evaluar los matices descritos anteriormente, en los que se puede persuadir a los chatbots para que no se desvíen de la línea roja.

En segundo lugar, fortalecer el enrutamiento de crisis: con información 988 actualizada, recursos geolocalizados y plantillas de “apoyo más seguridad” que validen las emociones de las personas, alienten la búsqueda de ayuda y eviten información detallada sobre los medios de daño.

En tercer lugar, garantizar la privacidad. Prohibir la publicidad y la elaboración de perfiles relacionados con las interacciones de salud mental, minimizar la retención de datos y exigir un modo de «memoria transitoria» para consultas sensibles.

En cuarto lugar, vincular las afirmaciones con la evidencia. Si un modelo se comercializa para brindar apoyo a la salud mental, debe cumplir con el estándar de deber de cuidado, mediante la evaluación previa al despliegue, el monitoreo posterior al despliegue, auditorías independientes y la alineación con los marcos de gestión de riesgos.

En quinto lugar, la administración debería financiar la investigación independiente a través del NIH y canales similares para que las pruebas de seguridad sigan el ritmo de las actualizaciones del modelo.

Todavía estamos en una etapa temprana de la era de la IA como para establecer un nivel mínimo (parámetros de referencia, estándares de privacidad y enrutamiento de crisis) y, al mismo tiempo, promover la transparencia mediante auditorías e informes.

Los reguladores también pueden recompensar el desempeño: por ejemplo, permitiendo que los sistemas que cumplen umbrales estrictos ofrezcan funciones de salud mental más integrales, como apoyo a la toma de decisiones clínicas.


Ilustración del globo.

Adoptar la colaboración global

David Yang es profesor de economía y director del Centro de Historia y Economía de Harvard, cuyo trabajo extrae lecciones de China.

David Yang.
Foto de archivo de Niles Singer/Fotógrafo del personal de Harvard

Las políticas actuales sobre IA están fuertemente influenciadas por una narrativa de competencia geopolítica, a menudo percibida como de suma cero o incluso de suma negativa. Es crucial cuestionar esta perspectiva y reconocer el inmenso potencial, y posiblemente la necesidad, de la colaboración global en este ámbito tecnológico.

La historia del desarrollo de la IA, con sus equipos líderes, notablemente internacionales, ejemplifica dicha colaboración. Por ejemplo, considerar la IA como una tecnología de doble uso puede dificultar la coordinación en los marcos y diálogos globales sobre seguridad de la IA.

Mis colaboradores y yo estamos investigando cómo han evolucionado las narrativas en torno a la tecnología a lo largo de décadas, con el objetivo de comprender la dinámica y las fuerzas, en particular cómo surgen las narrativas competitivas e influyen en la formulación de políticas.

En segundo lugar, la estrategia estadounidense en materia de inteligencia artificial se ha centrado recientemente en mantener el dominio estadounidense en la innovación y el mercado global.

Sin embargo, los productos de IA desarrollados en un único centro de innovación podrían no ser adecuados para todas las aplicaciones globales. En un artículo reciente , con mi colega Josh Lerner de HBS y colaboradores, demostramos que el surgimiento de China como un importante centro de innovación ha impulsado la innovación y el emprendimiento en otros mercados emergentes, ofreciendo soluciones más adecuadas a las condiciones locales que las que se comparan únicamente con EE. UU.

Por lo tanto, es crucial lograr un equilibrio: preservar la innovación y el liderazgo tecnológico en IA de EE. UU., a la vez que se fomentan las colaboraciones y el emprendimiento locales. Este enfoque garantiza que la tecnología de IA, sus aplicaciones y la dirección general de la innovación sean relevantes para los contextos locales y lleguen a un público global.

Paradójicamente, ceder más control podría, en mi opinión, consolidar la tecnología y el poder de mercado para los innovadores estadounidenses en IA.


Ilustración de escalas.

Fomentar la rendición de cuentas y la innovación

Paulo Carvão es investigador principal del Centro Mossavar-Rahmani para Negocios y Gobierno de la Escuela Kennedy de Harvard e investiga la regulación de la IA en Estados Unidos.

Paulo Carvão.
Foto cortesía de Paulo Carvão

El Plan de Acción de IA de la administración Trump marca un cambio de una regulación cautelosa a una aceleración industrial. Enmarcado como un llamado a la acción para el dominio tecnológico estadounidense, el plan apuesta por el liderazgo del sector privado para impulsar la innovación, la adopción global y el crecimiento económico.

Las tecnologías anteriores, como las plataformas de internet y las redes sociales, evolucionaron sin marcos de gobernanza. En cambio, los responsables políticos, desde la década de 1990 hasta la de 2010, decidieron deliberadamente permitir que la industria creciera sin regulación y sin protección contra responsabilidades.

Si queremos que el mundo confíe en la IA fabricada en Estados Unidos, debemos asegurarnos de que se gane esa confianza, dentro y fuera del país.

La rápida adopción de la IA se produce en un contexto de mayor concienciación sobre las implicaciones sociales de las olas tecnológicas anteriores. Sin embargo, la industria y sus principales inversores abogan por la implementación de una estrategia similar, con pocas salvaguardias y abundantes incentivos.

Lo más inusual de la estrategia recientemente anunciada es lo que le falta. Desestima las barreras como obstáculos a la innovación y confía en las fuerzas del mercado y la acción voluntaria.

Esto puede atraer inversión, pero deja preguntas cruciales sin respuesta: ¿Quién garantiza la imparcialidad en la toma de decisiones algorítmica? ¿Cómo protegemos a los trabajadores desplazados por la automatización? ¿Qué sucede cuando la inversión en infraestructura prioriza la potencia informática sobre el impacto en la comunidad?

Aun así, el plan acierta en algunos aspectos. Reconoce la IA como un desafío integral, desde chips hasta modelos y estándares, y se toma en serio la necesidad de infraestructura y desarrollo de la fuerza laboral estadounidense. Su estrategia internacional ofrece un marco convincente para el liderazgo global.

En definitiva, la innovación y la rendición de cuentas no tienen por qué ser un compromiso. Son un imperativo doble.

Incentivar la formación de equipos de investigación independientes basados ​​en estándares, apoyar un mercado de cumplimiento normativo y auditorías, y fortalecer la capacidad de todo el gobierno para evaluar los sistemas de IA. Si queremos que el mundo confíe en la IA estadounidense, debemos asegurarnos de que se gane esa confianza, tanto a nivel nacional como internacional.


Ilustración de estetoscopio.

Regulación que reconoce los cuellos de botella en la atención sanitaria

Bernardo Bizzo es director senior del Mass General Brigham AI y profesor asistente de radiología en la Facultad de Medicina de Harvard . 

Bernardo Bizzo.
Veasey Conway/Fotógrafo del personal de Harvard

La regulación de la IA clínica no se ha adaptado a los problemas que enfrentan los médicos.

Para adaptarse a las rutas de dispositivos existentes, los proveedores limitan la IA a condiciones específicas y flujos de trabajo rígidos. Esto puede reducir el riesgo percibido y generar indicadores limitados de efectividad, pero también reduce el impacto y la adopción. No aborda el verdadero obstáculo en la atención médica estadounidense: la eficiencia ante el aumento de volúmenes y la escasez de personal.

Los modelos básicos pueden redactar informes radiológicos, resumir gráficos y orquestar pasos rutinarios en flujos de trabajo de agentes. La FDA ha implementado software iterativo; sin embargo, aún no existe una vía común específica para los copilotos clínicos de modelos básicos que aprendan continuamente mientras generan documentación para diversas afecciones.

Algunos elementos de una postura desregulatoria podrían ayudar si se aplican con cuidado.

El Plan de Acción de IA de Estados Unidos propone un ecosistema de evaluación de IA y entornos regulatorios que permitan realizar pruebas rápidas, pero supervisadas, en entornos reales, como el sector sanitario. Esto se alinea con el Healthcare AI Challenge, una comunidad colaborativa impulsada por MGB AI Arena que permite a expertos de todo el país evaluar la IA a escala con datos reales de múltiples sitios.

Con la participación de la FDA, este enfoque puede generar la evidencia que necesitan las agencias y los pagadores y las evaluaciones de utilidad clínica que solicitan los proveedores.

Es posible que algunos requisitos previos a la comercialización se alivien, aunque no se ha promulgado nada. De ocurrir esto, una mayor responsabilidad recaerá en los desarrolladores y proveedores de implementación. Este cambio solo es viable si los proveedores cuentan con herramientas y recursos prácticos para la validación y la supervisión locales, ya que la mayoría están saturados.

Al mismo tiempo, los desarrolladores están lanzando modelos frecuentes y más potentes, y mientras algunos esperan un camino regulado y viable para los copilotos clínicos, muchos están impulsando la experimentación en pilotos o flujos de trabajo de investigación clínica, a menudo sin las protecciones adecuadas.

Donde me gustaría que hubiera más regulación es después del despliegue.

Exigir una validación local antes de la puesta en marcha, un seguimiento continuo posterior a la comercialización, como el registro Assess-AI del Colegio Americano de Radiología, y la presentación de informes de rutina a la FDA para que los reguladores puedan ver la eficacia y la seguridad en la práctica, en lugar de confiar principalmente en informes sobre dispositivos médicos subutilizados a pesar de los desafíos conocidos con la generalización.

La IA en el ámbito sanitario necesita políticas que amplíen la computación confiable y asequible, adopten la monitorización y los registros de la IA, habiliten bancos de pruebas sectoriales a gran escala y recompensen la eficiencia demostrada que puede proteger a los pacientes sin frenar el progreso.

The Harvard Gazette News. S. B. Traducido al español

Artículos relacionados

Epic Games Store

Shrine’s Legacy es un título de 16 bits que retoma la clásica fórmula de los RPG de Super Nintendo

Un joven héroe valiente, un mago misterioso, gemas mágicas y un tirano con tanta armadura que parece que no pueda ni moverse. ¿Os suena de algo? Shrine’s Legacy, el título debut de Positive Concept Games, se inspira en conceptos que han definido los juegos de rol durante décadas. Su protagonista, Rio Shrine, se embarca en una aventura para reunir ocho gemas elementales y restaurar la espada de Shrine (Sword of Shrine), la clave para derrotar al malvado Aklor.

Continuar leyendo...
Scroll al inicio