El Portal de las Tecnologías para la Innovación

¡Cuidado con las ideas preconcebidas sobre la IA generativa en los negocios!

ChatGPT ha sido una herramienta fantástica para democratizar la IA en los últimos meses. Todos interactuaron con este bot y se formaron una opinión sobre la IA generativa. ¡Cuidado, este es un mundo que todavía está evolucionando muy rápidamente y todo puede cambiar muy rápidamente!

Lanzado el 30 de noviembre de 2022, para sorpresa de todos los expertos, ChatGPT se consolidó muy rápidamente como el tema de discusión número uno durante la pausa para el café… y también en las reuniones de ComEx. Abrumadas por los usos incontrolados de ChatGPT internamente, pero atentas a los numerosos casos de uso que esta tecnología permitiría, muchas empresas rápidamente tomaron medidas y se equiparon con plataformas “corporativas” un poco más definidas.

Muchos han optado por la oferta del servicio Microsoft Azure OpenAI para moverse lo más rápido posible y proporcionar un ChatGPT privado a sus empleados rápidamente.

Pero ojo, la IA generativa no se limita a ChatGPT y su diseñador OpenAI, ni mucho menos. AWS, Google y Meta proporcionaron rápidamente su propio LLM (Large Language Model), el corazón de una solución de IA generativa. ¡Las empresas ahora deben interesarse por estas alternativas para no crear demasiada dependencia de OpenAI! Incluso existen soluciones soberanas y de código abierto como los LLM de la empresa francesa Mistral.AI que obtienen resultados muy interesantes.

Asimismo, cuando pensamos en IA, imaginamos centros de datos gigantes con un poder de procesamiento considerable para poder operarlos. Esto es sólo parcialmente cierto. Si se necesita mucho tiempo y recursos informáticos para formar un LLM, es decir enseñarle a comunicarse en lenguaje natural con el usuario, se necesita mucho menos para especializarlo en un dominio.

Asimismo, si está dirigido a un número limitado de usuarios, el modelo requerirá menos recursos para ejecutarse. Es técnicamente posible implementar un LLM en los servidores internos de una empresa y hoy en día existen SLM (Small Language Model) que se ejecutan en un teléfono inteligente. Cuanto más avance la investigación, más efectivos serán los modelos manteniendo respuestas de calidad.

Una historia que aún queda por escribir

Actualmente, los LLM se utilizan ampliamente para generar un correo electrónico, resumir textos sobre un tema y realizar traducciones. Esto es útil, pero queda todo por hacer porque estos modelos podrán abordar tareas cada vez más complejas. El sector del desarrollo de TI es sin duda aquel en el que su uso se ha generalizado más rápidamente. Los LLM ayudan a los desarrolladores a escribir código, corregir errores o incluso encontrar vulnerabilidades de seguridad en un programa.

Queda mucho por inventar. Por ejemplo, aunque todavía no existen enfoques industrializados y automatizados para hacerlo, los LLM pueden aprender a interpretar diagramas de arquitectura informática y traducirlos a código, o viceversa. Probablemente lo mismo ocurrirá con documentos aún más complejos, como planos arquitectónicos, diagramas electrónicos, etc.

Recién estamos empezando a ver la llegada de LLM especializados para tal o cual profesión. Este es especialmente el caso en el ámbito jurídico, pero este ejemplo se aplicará infinitamente en todos los ámbitos de actividad.

Mucho se ha dicho sobre los flagrantes errores e invenciones de que ChatGPT puede responder preguntas para las que no tiene respuesta. Estos errores y alucinaciones ciertamente deben tenerse en cuenta y controlarse, pero no deben ser un obstáculo para el despliegue de los LLM en el entorno profesional.

Por un lado, es preferible poner un filtro humano a estas IA: La IA no reemplaza al agente del call center, sino que sugerirá respuestas. Si la solución propuesta es totalmente fantasiosa, el humano se dará cuenta inmediatamente y reformulará su petición.

Por otro lado, de generación en generación los LLM mejoran a gran velocidad, las respuestas de GPT 4 ya no tienen nada que ver con lo que proporcionaban las primeras versiones de GPT 3 y esta tendencia de mejora no sólo aumentará entre todos los proveedores.

Múltiples puntos de referencia permiten ahora evaluar la relevancia de los LLM en muchas áreas y así medir el progreso realizado. Muchos LLM ahora pueden detectar muy bien la ironía o el sarcasmo en las consultas de los usuarios e interpretar mucho mejor la complejidad del lenguaje humano.

2024, el año de RAG en el negocio

Otro avance importante que estará ampliamente disponible en 2024 es la capacidad de un LLM de citar sus fuentes. Esto es particularmente lo que proporcionan las arquitecturas RAG (Retrieval Augmented Generation). La empresa proporciona una determinada cantidad de documentos y fuentes de datos al LLM con el fin de enriquecer sus respuestas y contextualizarlas en relación con la actividad de la empresa o un caso de uso muy específico.

Este enfoque es económico y puede implementarse rápidamente. Esto requiere establecer una base de conocimientos a partir de la cual el LLM se basará para generar sus respuestas, pero no es necesaria capacitación adicional.

Uno de los otros avances importantes que está experimentando actualmente la IA generativa es la industrialización y la simplificación del acceso a estas tecnologías avanzadas por parte de las empresas. Así, las plataformas “GenAI” que ofrecen los proveedores de la Nube automatizan tareas que requerían habilidades de alto nivel hace apenas unos meses. Ahora es posible implementar un RAG con sólo unos pocos clics en las principales plataformas del mercado y esta tendencia hacia la simplificación no hará más que aumentar en los próximos meses.

Este enfoque redefinirá de alguna manera parcialmente el papel del científico de datos .

Hasta ahora, su talento consistía en crear modelos a medida y lo más eficientes posible en función del problema que se les presentaba. Mañana, el problema puramente algorítmico será más sencillo y los modelos estarán cada vez más listos para su uso.

Los científicos de datos tendrán más tiempo para dedicar a conversaciones con líneas de negocio para comprender y anticipar mejor sus necesidades. Asimismo, el papel de los analistas evolucionará, porque cada vez más usuarios empresariales, especialmente los de marketing, podrán consultar los sistemas más complejos con poco o ningún conocimiento técnico. La IA podrá traducir una pregunta al lenguaje SQL, obtener los datos correctos y generar el gráfico más adecuado para los usuarios empresariales.

En este sentido, el meteórico ascenso de la IA generativa ha causado miedo entre muchas profesiones, ya que esta tecnología puede impactar potencialmente en todas las profesiones, incluidas aquellas en las que los humanos podrían parecer insustituibles, como médicos, arquitectos y profesiones creativas. Sin embargo, no debemos temer estos avances.

La IA generativa ayudará enormemente a los humanos en sus tareas diarias y transformará verdaderamente muchas profesiones, pero no podrá reemplazar a los humanos cuyo papel será valorado. En este sentido, prefiero ver la llegada de la IA generativa a las empresas con benevolencia y esperanza que con desconfianza y recelo. Fuente NetMedia Francia(BH), traducido al español

Artículos relacionados

Scroll al inicio