El Portal de las Tecnologías para la Innovación

Un informe describe los principios de Stanford para el uso de la IA

El informe del Comité Asesor de IA en Stanford incluye recomendaciones para el uso de IA en la administración, la educación y la investigación de la universidad.

Mientras la inteligencia artificial (IA) continúa transformando la educación, la investigación y la administración en Stanford, un  nuevo informe del Comité Asesor de IA de la universidad pide equilibrar la innovación con la responsabilidad y la alineación con los valores clave de la universidad.

Subrayando tanto las oportunidades como los riesgos de la IA, el informe “IA en Stanford” establece principios rectores para fomentar la experimentación y la creatividad al tiempo que aborda desafíos como el plagio, la autoría y el uso ético. 

“El crecimiento de las tecnologías de IA tiene enormes implicaciones para la educación superior, desde el aula hasta el laboratorio de investigación”, dijo la rectora Jenny Martínez. “Las posibilidades son increíblemente emocionantes y confío en que Stanford seguirá siendo líder en esta área. A medida que apoyamos los avances en esta tecnología, es fundamental evaluar cómo se utiliza la IA en Stanford hoy, considerar cómo se puede utilizar en el futuro e identificar cualquier brecha de políticas que pueda existir. Estoy agradecida por el trabajo reflexivo y minucioso del comité asesor y la orientación que ha proporcionado para promover el uso responsable de la IA en Stanford”. 

En marzo, el rector encargó al Comité Asesor de IA en Stanford que evaluara el papel de la IA en la administración, la educación y la investigación, e identificara lo que se necesita para utilizar la IA de manera responsable en la universidad.

Varias oficinas y comités de la universidad considerarán y adoptarán las recomendaciones del informe, y el presidente del comité realizará una presentación ante el Senado de la Facultad en el trimestre de invierno. El comité, compuesto por 10 miembros de la facultad y del personal de varias unidades del campus, seguirá reuniéndose para abordar cuestiones futuras relacionadas con el uso de la IA en Stanford. 

Equilibrar la experimentación con los principios

Si bien el comité reconoció las preocupaciones legítimas sobre la IA, buscó evitar políticas rígidas que pudieran disuadir los beneficios potenciales de la tecnología. “Queríamos primero alentar la experimentación en espacios seguros para aprender qué puede hacer y cómo podría ayudarnos a cumplir nuestra misión”, dijo el presidente del comité, Russ Altman. “Pero también queríamos establecer áreas claras de ‘temas sensibles’ donde las personas deberían proceder con mucha precaución”.

El informe destaca posibles lagunas en las políticas de la universidad, señalando que muchas situaciones y desafíos no se pueden prever, y proporciona principios generales para guiar el uso de la IA en la universidad, como exigir supervisión humana y consideraciones éticas en todo uso de la IA. 

“Siempre debe haber profesionalismo y responsabilidad personal. Siempre que alguien utiliza IA, incluso si la IA hace algún trabajo, debe asumir la responsabilidad del resultado y, si hay errores, es su responsabilidad”, dijo Altman, profesor de la cátedra Kenneth Fong y profesor de bioingeniería, genética, medicina y ciencia de datos biomédicos, e investigador principal del Instituto de Inteligencia Artificial Centrada en el Ser Humano de Stanford. 

Según el informe, la gente debería resistirse a caer en el excepcionalismo de la IA , dando por sentado que las leyes, regulaciones y políticas universitarias existentes no son aplicables a la IA. “Parece seductoramente capaz”, dijo Altman, “y por eso la gente baja la guardia y la usa de maneras que sugieren que están olvidando qué es y cómo funciona”.

Como principio rector, el informe recomienda una “regla de oro de la IA”: utilizar la IA con los demás como nos gustaría que ellos la utilizaran con nosotros. Por ejemplo, ¿querríamos que se utilizara la IA para revisar nuestra propuesta? Esta evaluación se basaría en juicios individuales, normas comunitarias en evolución y se combinaría con otros principios para orientar el uso de la IA.

Educación 

Un área principal que examinó el comité es cómo la IA afecta la educación. Los estudiantes ya han adoptado tecnologías de IA como ChatGPT, lo que significa que el Código de Honor y las políticas individuales de las aulas podrían necesitar una revisión, señaló el comité.

Al mismo tiempo, muchos profesores no tienen experiencia con IA y no saben cómo pueden usarla, dijo Dan Schwartz, miembro del comité y decano de la Escuela de Graduados de Educación (GSE).

“Los estudiantes han estado explorándolo mucho más que el personal docente, y por eso es importante encontrar formas de educar al personal docente, lo que creo que también es cierto en el ámbito de la investigación”, dijo Schwartz. “La pregunta está cambiando lentamente de qué van a hacer trampa nuestros estudiantes a una pregunta más sofisticada de qué se considera trampa, cómo pueden usar la IA en su trabajo y cómo hacer que sea parte de la tarea”.

Para ayudar a los profesores a abordar estas cuestiones, el comité recomienda marcos que se puedan adaptar a las diferentes necesidades de las aulas. “Era algo que tanto los estudiantes como los profesores querían para poder entender qué es permisible y productivo”, dijo Schwartz. 

La GSE ya ha creado AI Tinkery , parte del Acelerador de Aprendizaje de Stanford , para proporcionar un espacio colaborativo donde los educadores puedan explorar las posibilidades de la IA. 

Investigación 

En la investigación, la IA plantea desafíos complejos, incluida la cuestión de si se puede o se debe reconocer a la IA como autora en las publicaciones. Otras preocupaciones incluyen el uso de la IA en la revisión y redacción de propuestas, el entrenamiento de la IA en trabajos de estudiantes, el uso de datos para la investigación de la IA, el abordaje de posibles violaciones de derechos de autor en los resultados de los programas de maestría en derecho y la detección de conductas fraudulentas. 

Por ejemplo, el uso de detectores de inteligencia artificial ya está generando un mayor volumen de denuncias de plagio, incluidas las falsas, lo que genera una enorme carga para las oficinas que se ocupan de las faltas de conducta en la investigación. Es posible que también sea necesario actualizar la política de faltas de conducta de la universidad y las normas para investigar las denuncias de conformidad con la nueva política federal. 

Muchas de estas cuestiones surgieron de conversaciones con quienes trabajan en la administración de la investigación, dijo Altman. 

El informe también señala que se debe recordar o informar a los investigadores sobre los posibles riesgos del uso de la IA y mantenerlos informados a medida que cambie el perfil de riesgo legal. El comité también alienta a la universidad a considerar formas de expandir los recursos informáticos para garantizar que Stanford siga siendo líder en el uso productivo de estas tecnologías. 

Administración 

En cuanto al uso de la IA en los procesos administrativos universitarios, el comité encontró varias áreas que podrían requerir más orientación y políticas adicionales, como la contratación, las evaluaciones de desempeño, las admisiones, las comunicaciones y la vigilancia. El informe también incluyó recomendaciones sobre educación y capacitación para el uso de datos confidenciales, un proceso de adquisición simplificado para sistemas de IA y cartas de recomendación. 

El comité reconoce que no se han identificado por completo todos los usos de la IA. “Éramos muy conscientes de que no podíamos descubrir todos los usos de la IA en el campus, y esto es lo que nos llevó a articular los principios rectores que esperamos que sean útiles para las personas que evalúan nuevas oportunidades de IA para ver si hay señales de alerta”, dijo Altman. “Al final, estos principios son probablemente más útiles y de propósito general que los problemas específicos que descubrimos, que pueden o no seguir siendo problemas en los próximos años”.

El comité es solo una faceta de la incorporación continua de la IA en el trabajo diario de la universidad, que también incluye recursos de TI de la universidad como Stanford AI Playground, donde el personal, los estudiantes y el profesorado pueden acceder a una variedad de herramientas de IA. Al mismo tiempo, en el ámbito de la investigación, el profesorado de toda la universidad está ampliando las fronteras del conocimiento en el desarrollo y uso de la IA en una amplia variedad de disciplinas, con el apoyo de programas como el Stanford Institute for Human-Centered Artificial Intelligence y Stanford Data Science , así como el nuevo Marlowe , el clúster de computación de alto rendimiento más nuevo de Stanford. Stanfor Report. Traducido al español

Artículos relacionados

Scroll al inicio