El Portal de las Tecnologías para la Innovación

Un profesor de la escuela lanza una nueva empresa centrada en la “IA agente”

La profesora adjunta de la Escuela de Información de la Universidad de California en Berkeley, Niloufar Salehi, se ha asociado con el profesor de la Universidad del Sur de California, Afshin Nikzad, y el empresario Steven Mih para lanzar  Across AI

, una startup pionera en inteligencia artificial para flujos de trabajo empresariales complejos. La startup recientemente salió de su escondite y anunció que había recaudado 5,7 millones de dólares en una ronda de financiación inicial codirigida por las empresas de capital de riesgo Cota Capital y Village Global. 

Across AI tiene como objetivo aprovechar el poder de la memoria de los agentes para ayudar a los equipos de ventas empresariales y a los directores de ingresos en su trabajo. La IA de los agentes hace referencia a la capacidad de los agentes artificiales de planificar, actuar, almacenar y recordar información sobre interacciones, experiencias y conocimientos pasados, lo que les permite tomar decisiones informadas y adaptarse a circunstancias cambiantes. El sistema de Across AI funciona con fuentes de datos internas y externas, como sistemas de relaciones con los clientes, herramientas de comunicación y colaboración y calendarios para identificar y cuantificar nuevas oportunidades de venta, detectar riesgos y sugerir preguntas para los clientes. El equipo planea lanzar una aplicación web y un chatbot que brindará asistencia a tiempo cuando sea necesario.

“El sistema rastrea, marca la hora y monitorea activamente las actualizaciones de información, reconociendo cuándo los datos se vuelven obsoletos o entran en conflicto con información nueva”, dijo Mih en un  artículo de TechCrunch sobre la empresa . “A diferencia de los sistemas de IA tradicionales que tratan todos los datos por igual, nuestro sistema de memoria agentica prioriza la información en función de la importancia contextual. Siempre que es posible, las aplicaciones mantienen las inferencias actualizadas por sí mismas. Cuando existe ambigüedad, las determinaciones se escalan a una persona relevante, como un gerente de ventas o un gerente de producto”.

Durante años, la investigación de Salehi sobre sistemas de IA confiables se ha centrado en las personas que usan o se ven afectadas por la tecnología. Años antes de lanzar la empresa, Salehi realizó  una investigación con los entonces miembros del equipo de IA ética de Google sobre la traducción automática centrada en el ser humano y cómo diseñar sistemas más seguros y confiables. Estas experiencias se convirtieron en una parte crucial del enfoque de Across AI hacia la IA, prometiendo a los usuarios privacidad y seguridad de los datos.

“Es necesario tener control sobre lo que hacen los agentes y transparencia sobre lo que han hecho”, explicó Salehi. “Un pilar del producto es que siempre que hay un resultado, se puede hacer clic en él y profundizar para ver los pasos de razonamiento que se tomaron, así como los documentos de origen… Todas esas cosas permiten la verificación, la transparencia y la explicabilidad de los modelos, lo que es una parte realmente importante para hacerlos útiles y confiables en el mundo real, generando confianza con los usuarios”.

“Mi visión para Across AI es que seamos el lugar que descifre el código sobre cómo hacer que los agentes de IA sean útiles y confiables para las personas. Quiero que estemos a la vanguardia del desarrollo de una ética de IA centrada en el ser humano y del desarrollo de las mejores prácticas que… centren a las personas que trabajarán con estos agentes y los mejorarán”.— Niloufar Salehi

Además, Salehi se inspiró en otras investigaciones sobre interacción entre humanos y computadoras que realizó mientras estaba en la I School. En un artículo específico, trabajó con la entonces estudiante de Maestría en Sistemas de Información y Gestión Eva Yiwei Wu (’20) para  explorar los sistemas algorítmicos y los roles que las personas imaginan que tendrán . Por ejemplo, cuando los estudiantes estudiaron el algoritmo de YouTube, comenzaron a asignar roles o personajes al algoritmo, como «guardián» o «agente de talento personal», aunque sabían que el algoritmo de YouTube es en última instancia una combinación de diferentes algoritmos de aprendizaje automático. Al asignar estos personajes, los usuarios podían decidir cuánto podían confiar en el algoritmo, qué hacer cuando estaba mal y cómo trabajar con él o en su contra. Esta investigación también se aplica a cómo las personas pueden ver e interactuar con los agentes autónomos, que es el núcleo de la tecnología de Across AI. 

Actualmente, Salehi se encuentra de licencia en la I School y se desempeña como directora de productos en Across AI, donde lidera un equipo de ex empleados de Google, investigadores de UX y diseñadores de productos para desarrollar la tecnología.

“Tenemos que inventar un conjunto completamente nuevo de formas para que las personas interactúen con la IA y con estos modelos”, explicó. “Ahora estamos en un punto en el que [estos modelos] harán parte del trabajo por nosotros y serán aleatorios… y las personas no están acostumbradas a eso. Parte de lo que hace que este trabajo sea realmente emocionante es que hay que desarrollar la experiencia del usuario y la IA al mismo tiempo”.

“Mi visión para Across AI es que seamos el lugar que descifre el código sobre cómo hacer que los agentes de IA sean útiles y confiables para las personas”, agregó Salehi. “Quiero que estemos a la vanguardia del desarrollo de una ética de IA centrada en el ser humano y del desarrollo de las mejores prácticas que… se centren en las personas que trabajarán con estos agentes y los mejorarán. La confianza, la fiabilidad y la transparencia son lo que me gustaría que fuera nuestra marca en la industria y en lo que podríamos ser vistos como líderes”. UC Berkeley News. Traducido al español

Artículos relacionados

Scroll al inicio