El problema con la mayoría de los intentos de regular la IA hasta el momento es que los legisladores se están centrando en una mítica experiencia futura de IA, en lugar de comprender verdaderamente los nuevos riesgos que la IA realmente introduce.
Así lo afirmó el socio general de Andreessen Horowitz, el VC Martin Casado, ante un público repleto en TechCrunch Disrupt 2024 la semana pasada. Casado, que dirige la práctica de infraestructura de 1.250 millones de dólares de a16z, ha invertido en empresas emergentes de inteligencia artificial como World Labs, Cursor, Ideogram y Braintrust.
“Las tecnologías transformadoras y la regulación han sido un tema recurrente durante décadas, ¿no es cierto? Lo que ocurre con todo el discurso sobre la IA es que parece haber surgido de la nada”, dijo a la multitud. “Están tratando de crear regulaciones completamente nuevas sin sacar lecciones de esas lecciones”.
Por ejemplo, dijo: «¿Han visto realmente las definiciones de IA en estas políticas? Es decir, ni siquiera podemos definirla».
Casado se encontraba entre un mar de voces de Silicon Valley que se regocijaron cuando el gobernador de California, Gavin Newsom, vetó la ley de gobernanza de la IA que se había propuesto en el estado, la SB 1047. La ley pretendía poner un llamado interruptor de apagado en los modelos de IA de gran tamaño, es decir, algo que los apagara. Quienes se opusieron al proyecto de ley dijeron que estaba tan mal redactado que, en lugar de salvarnos de un futuro monstruo imaginario de la IA, simplemente habría confundido y obstaculizado la escena de desarrollo de la IA en California.
“Con frecuencia escucho a fundadores que se resisten a mudarse aquí debido a lo que esto indica sobre la actitud de California hacia la IA: que preferimos una mala legislación basada en preocupaciones de ciencia ficción en lugar de riesgos tangibles”, publicó en X un par de semanas antes de que el proyecto de ley fuera vetado.
Aunque esta ley estatal en particular ya no existe, el hecho de que existiera todavía preocupa a Casado. Le preocupa que se puedan materializar más proyectos de ley, redactados de la misma manera, si los políticos deciden complacer los temores de la población general a la IA, en lugar de regular lo que la tecnología realmente está haciendo.
Entiende la tecnología de IA mejor que la mayoría. Antes de unirse a la histórica firma de capital de riesgo, Casado fundó otras dos empresas, incluida una empresa de infraestructura de redes, Nicira, que vendió a VMware por 1.260 millones de dólares hace poco más de una década. Antes de eso, Casado fue experto en seguridad informática en el Laboratorio Nacional Lawrence Livermore .
Dice que muchas de las regulaciones propuestas sobre IA no surgieron ni fueron apoyadas por muchos de los que entienden mejor la tecnología de IA, incluidos académicos y el sector comercial que desarrolla productos de IA.
“Hay que tener una noción de riesgo marginal diferente. Por ejemplo, ¿en qué se diferencia la IA actual de alguien que usa Google? ¿En qué se diferencia la IA actual de alguien que simplemente usa Internet? Si tenemos un modelo que muestre en qué se diferencia, se tiene una noción de riesgo marginal y luego se pueden aplicar políticas que aborden ese riesgo marginal”, dijo.
«Creo que es demasiado pronto para empezar a aferrarnos a un montón de regulaciones y entender realmente qué vamos a regular», sostiene.
El contraargumento —y que varias personas del público mencionaron— fue que el mundo no veía realmente los tipos de daños que Internet o las redes sociales podían causar antes de que estos daños estuvieran sobre nosotros. Cuando se lanzaron Google y Facebook, nadie sabía que dominarían la publicidad en línea o que recopilarían tantos datos sobre las personas. Nadie entendía cosas como el acoso cibernético o las cámaras de eco cuando las redes sociales eran jóvenes.
Los defensores de la regulación de la IA a menudo señalan estas circunstancias pasadas y dicen que esas tecnologías deberían haber sido reguladas desde el principio.
¿La respuesta de Casado?
“Hoy en día existe un sólido régimen regulatorio que se ha desarrollado a lo largo de 30 años”, y está bien equipado para construir nuevas políticas para la IA y otras tecnologías. Es cierto que, solo a nivel federal, los organismos reguladores incluyen todo, desde la Comisión Federal de Comunicaciones hasta el Comité de Ciencia, Espacio y Tecnología de la Cámara de Representantes. Cuando TechCrunch le preguntó a Casado el miércoles después de las elecciones si mantiene esta opinión (que la regulación de la IA debería seguir el camino ya trazado por los organismos reguladores existentes), dijo que sí.
Pero también cree que no se debería atacar a la IA por los problemas que presentan otras tecnologías, sino que se debería atacar a las tecnologías que causaron los problemas.
“Si nos equivocamos en las redes sociales, no podemos solucionarlo con la IA”, dijo. “Los que regulan la IA dicen: ‘Oh, nos equivocamos en las redes sociales, por lo tanto, lo haremos bien en la IA’, lo cual es una declaración sin sentido. Vamos a solucionarlo en las redes sociales”. TechCrunch. J. B. Traducido al español