El Portal de las Tecnologías para la Innovación

Chubut Digital

¿Ha llegado el fin de la era de los LLM?

Los grandes modelos de lenguaje (LLM) no paran de crecer, sembrando dudas respecto a sus costes, consumo energético, etc. ¿Vamos hacia una nueva era de modelos de lenguaje pequeños (SLM)? Los grandes modelos de lenguaje (LLM) comenzaron a popularizarse a raíz del lanzamiento de ChatGPT de OpenAI. De repente, todo el mundo descubrió que la inteligencia artificial (IA) no era sólo una tecnología presente en las tripas de sus móviles, altavoces inteligentes, recomendadores de servicios de streaming de vídeo y música o de ecommerce, etc., sino que cualquier podía hacer uso de ella. Esa IA generativa es posible gracias a los LLM que hay tras ella, alimentados por ingentes cantidades de datos. “Por ejemplo, Llama 3, de Meta, ya va por unos 400.000 millones de parámetros. Y van a crecer todavía más, porque se piensa que así pueden aparecer capacidades emergentes que ayudarán a mejorar la IA general”, indica Enrique Lizaso, CEO y cofundador de Multiverse Computing. Esto permite que la IA cada vez sea capaz de hacer más cosas. Pero esta evolución comporta importantes desafíos. “Los LLM de IA se han convertido en herramientas poderosas y transformadoras en prácticamente todos los campos. Sin embargo, como tecnología emergente, presentan algunos retos interesantes”, afirma David Hurtado, jefe de Innovación de Microsoft. Costes desorbitados El primer escollo es el elevado coste de entrenamiento de estos modelos. “En primer lugar, el entrenamiento de estos modelos requiere una gran inversión en recursos computacionales y datos, lo que puede ser costoso y complejo. El trabajo aquí se está centrando en hacer más eficientes los modelos para reducir los costes y consumo de recursos”, expone. “Los costes asociados a la adquisición, entrenamiento y puesta a punto de los LLM pueden ser astronómicos, ya que el entrenamiento de algunos de los principales modelos puede llegar a costar casi 200 millones de dólares, cifra que es prohibitiva para muchas empresas. A esta cifra debemos sumarle la adaptación a los requisitos o datos específicos de cada organización, así como la contratación de profesionales cualificados que puedan ejecutar el proyecto”, especifica Jan Wildeboer,  EMEA evangelist de Red Hat. Además, los costes no paran de crecer. Lizaso señala que se prevé que la próxima generación de LLM alcance un coste próximo a los 1.000 millones de dólares. Esto da lugar a rondas de financiación como la que ha cerrado Elon Musk para xAI, en la que ha logrado captar 6.000 millones de dólares. Consumo energético desaforado También hay que tener en cuenta el enorme consumo energético de los data centers que mueven estos LLM, con las repercusiones que tiene esto tanto en los costes operativos como en su impacto medioambiental. “Los LLM necesitan ser reentrenados completamente cada vez que se va a añadir información, lo que supone también un alto coste de energía”, recalca el responsable de Red Hat. “En algunos países, como en Irlanda, el consumo de los data centers se ha desmadrado. Se ha visto que podrían llegar a suponer el 30% del consumo total de electricidad. Esto está haciendo que se desarrolle legislación que obliga al consumo de energía verde. Hay una presión legislativa y gubernamental para ajustar los consumos energéticos”, expone el CEO de Multiverse Computing. Las grandes empresas del sector están tomando cartas en el asunto, tal y como ya hemos contado en alguna ocasión. “Reconocemos el impacto energético de estos modelos y estamos comprometidos con su desarrollo y operación sostenibles. Por ello, invertimos en investigación para medir y reducir el uso de energía y la huella de carbono de la IA”, comenta el Innovation lead de Microsoft. Otros factores Esos son los principales desafíos a los que se enfrentan los desarrolladores de LLM, pero no son los únicos. “Otro reto interesante es la precisión de los modelos. En determinados contextos muy específicos o técnicos, un LLM puede no ser suficientemente preciso. Y no siempre se mejora con un modelo más grande. Actualmente, estamos invirtiendo muchos recursos en mejorar los procesos de entrenamiento para hacer los modelos más precisos y menos proclives a la alucinación”, detalla Hurtado. Wildeboer también hace hincapié en las dudas en torno a la transparencia de los LLM, que es uno de los grandes retos de la IA para los próximos años. “Se asemejan a una caja negra impenetrable. Su entrenamiento con miles de millones de datos sin procesar dificulta rastrear el origen de sus respuestas y la lógica detrás de ellas. Esta opacidad genera dudas sobre su fiabilidad, dificulta la explicación de sus decisiones y plantea serias preocupaciones sobre la equidad y la posible perpetuación de prejuicios en áreas sensibles como la justicia o la medicina”. En una línea similar, el responsable de Microsoft pone el acento en el reto que supone la responsabilidad. “En Microsoft tenemos una metodología muy estricta de RAI (de las siglas en inglés de Responsible AI), guiada por pilares clave como la equidad, fiabilidad, seguridad, privacidad, inclusión, transparencia y responsabilidad. Estos valores se aterrizan en guías y procedimientos para todos los empleados”, subraya. Alternativas a los LLM Pese a ello, parece poco probable que nos acerquemos al fin de la era de los LLM. Aunque las empresas tecnológicas son conscientes de dichos desafíos y saben que dificultan la implantación de esta tecnología en las empresas y el desarrollo de casos de uso, por lo que están dando respuestas. “Las opciones para resolver los retos de los LLM van en dos vías, en paralelo. Por un lado, mejorar consistentemente la eficiencia de los grandes modelos, para que sean cada vez más pequeños y baratos. La segunda es el uso de los modelos de lenguaje pequeños (Small Language Models, SLM)”, afirma Hurtado. “Los SLM son una solución tremendamente prometedora, dado que utilizan una fracción de los recursos computacionales y consumo energético de los LLM, pero con un rendimiento similar en determinadas tareas”, explica. “Ambas vías, creación de SLM y mejora de los LLM, van en paralelo y son complementarias. Todo apunta a que el futuro estará compuesto por una combinación de ambos”, añade. Así lo cree también Lizaso. “Los grandes creadores de modelos, como Meta, OpenAI o Anthropic, han visto esta tendencia. Además de sacar modelos grandes, también lanzan uno intermedio y otros más pequeño”, comenta.

¿Ha llegado el fin de la era de los LLM? Leer más »

Microsoft invierte 4.300 millones de euros en Italia para IA y nube

Microsoft sigue invirtiendo 4.300 millones de euros en centros de datos e inteligencia artificial Microsoft continúa con su fuerte inversión en el sector de centros de datos e inteligencia artificial (IA), siendo Italia el último país en recibir una enorme inversión. Microsoft anunció su mayor inversión en Italia hasta la fecha, con una iniciativa de 4.300 millones de euros (3.600 millones de libras esterlinas) “en los próximos dos años para expandir su infraestructura de hiperescala de nube y centro de datos de IA y brindar capacitación en habilidades digitales a más de un millón de italianos para fines de 2025”. Desde noviembre de 2023, Microsoft ha estado realizando importantes inversiones en varios países, generalmente centradas en centros de datos y habilidades de inteligencia artificial. Microsoft Italia El anuncio que hizo Microsoft el miércoles sobre su enorme inversión en el norte de Italia tiene como objetivo ayudar a ese país a maximizar las oportunidades de la IA y contribuir al enfoque del gobierno italiano en el crecimiento económico a largo plazo en medio de un duro desafío demográfico. Microsoft dijo que la expansión de su centro de datos en el norte de Italia, junto con su compromiso de brindar una amplia capacitación en habilidades de IA, respalda la creciente demanda de computación de IA y servicios en la nube en toda Italia a medida que las organizaciones buscan aumentar la productividad y descubrir nuevos avances con IA. Con esta inversión, Italia Norte se convertirá en una de las mayores regiones de centros de datos de Microsoft en el continente y desempeñará un papel crucial para cumplir con los requisitos de límites de datos europeos. También servirá como un centro de datos clave para el Mediterráneo y el norte de África. El gigante del software dijo que esta infraestructura operará bajo los Principios de Acceso a IA de Microsoft, que fueron creados para fomentar la innovación y la competencia sana dentro de la economía de IA en rápido crecimiento. Mientras tanto, la decisión de reforzar las habilidades de IA en el país se produce a pesar de la escasez de talento de Italia y el desafío del envejecimiento de su población. Italia podría perder alrededor de 3,7 millones de trabajadores para 2040, la cantidad de personas que se proyecta que abandonarán la fuerza laboral, lo que resultaría en 267.800 millones de euros en PIB nacional al nivel actual de productividad, señaló el gigante del software, pero señaló nuevas tecnologías como la IA para ayudar a hacer posible mantener el mismo nivel de bienestar económico. Microsoft y sus socios presentarán nuevos programas de capacitación para capacitar a más de 1 millón de personas en Italia para 2025, centrados en la fluidez en IA, las habilidades técnicas en IA, la transformación empresarial de IA y la promoción del desarrollo seguro y responsable de IA. “En menos de un año, nuestra Región Cloud ha ayudado a empresas italianas e internacionales a lograr una mayor productividad e innovación”, afirmó Vincenzo Esposito, Director General de Microsoft Italia. “Esta nueva inversión confirma nuestro compromiso con el crecimiento sostenible de Italia, ayudando a las organizaciones a aprovechar el poder de la nube y la IA generativa, al tiempo que brindamos a los italianos las habilidades necesarias para maximizar estas tecnologías. Nuestra Región Norte de Italia seguirá acelerando la transformación digital y las habilidades en Italia, garantizando que nadie se quede atrás”. Programa global Microsoft ha estado ocupado durante los últimos once meses realizando importantes inversiones en Europa y el sudeste asiático, que comenzaron en el Reino Unido. En noviembre de 2023, Microsoft realizó su mayor inversión en sus cuarenta años de historia en el Reino Unido , al gastar £2.500 millones durante los próximos tres años para expandir su infraestructura de centro de datos de IA de próxima generación en el Reino Unido. Microsoft también dijo que capacitaría a más de un millón de personas para la economía de IA. Luego, en febrero de 2024, Microsoft confirmó que invertirá 3.200 millones de euros (3.440 millones de dólares) en Alemania en los próximos dos años, principalmente en inteligencia artificial. Luego la atención se centró en Asia, con Microsoft realizando inversiones en Japón, Malasia, Indonesia y Tailandia . Microsoft dijo que invertiría 2.900 millones de dólares en Japón, 1.700 millones de dólares en Indonesia, otros compromisos importantes en Tailandia y una inversión de 2.200 millones de dólares en Malasia. Luego, el mes pasado, tanto Microsoft como BlackRock anunciaron un fondo con un valor de más de 30 mil millones de dólares para invertir en centros de datos centrados en IA, cadenas de suministro de IA y abastecimiento de energía. Esta semana, Microsoft formó parte de la ronda de financiación de 6.600 millones de dólares en OpenAI . NetMedia. Internacional. Reino Unido. T. J. Traducido al español

Microsoft invierte 4.300 millones de euros en Italia para IA y nube Leer más »

Tesla retira 27.000 Cybertrucks por un problema con la cámara trasera

Otro retiro de miles de Tesla Cybertrucks por retraso en la cámara trasera, que podría dificultar la visibilidad del conductor Tesla está emitiendo el quinto retiro del mercado para su vehículo Cybertruck de laterales planos este año, debido a problemas con la cámara trasera. CNBC informó que Tesla dijo el jueves que retiraría más de 27.000 Cybertrucks debido a imágenes retrasadas de la cámara de visión trasera que podrían afectar la visibilidad del conductor y aumentar los riesgos de accidentes. Según se informa, el problema se solucionará con una actualización de software, lo que eliminará la necesidad de un costoso retiro físico de las enormes camionetas. Retirada del mercado de Cybertruck CNBC informó que Tesla dijo el jueves que el sistema Cybertruck en los vehículos afectados podría no completar un proceso de apagado antes de que se le ordene reiniciarse, lo que resulta en un retraso en la visualización de la imagen de la vista trasera. La imagen puede no aparecer dentro de los dos segundos de colocar el vehículo en reversa, y la pantalla puede aparecer en blanco durante hasta seis u ocho segundos cuando el vehículo se pone en reversa, dijo Tesla en un informe con la Administración Nacional de Seguridad del Tráfico en las Carreteras de Estados Unidos. Según se informa, Tesla dijo que identificó el problema a principios del mes pasado y que todos los Cybertrucks actualmente en producción recibieron la solución de software. La visibilidad trasera en el Cybertruck puede ser limitada para los conductores. Otros retiros Este último retiro afecta a la mayoría de los Cybertrucks en los Estados Unidos y es el más grande que se haya realizado hasta ahora para el camión eléctrico. Tesla había emitido un retiro en abril para reparar una almohadilla suelta en el pedal del acelerador y otro en junio por problemas con los limpiaparabrisas y la moldura exterior. Los Tesla Cybertrucks finalmente estarán disponibles para la venta en noviembre de 2023, después de años de retrasos debido a problemas de producción y limitaciones en el suministro de baterías. Los Tesla Cybertrucks sólo se venden en Estados Unidos, Canadá y México, ya que el vehículo no cumple con los estándares europeos actuales. NetMedia. Internacional. Reino Unido. T. J. Traducido al español

Tesla retira 27.000 Cybertrucks por un problema con la cámara trasera Leer más »

OpenAI lanza ChatGPT Canvas, desafiando a Claude Artifacts

Recién después de la noticia de su ronda de financiación récord de $6.6 mil millones , OpenAI está actualizando su aplicación de inteligencia artificial ChatGPT con una nueva función, Canvas , que permite a los usuarios ver, editar directamente y modificar fácilmente solo partes seleccionadas de los resultados del chatbot en una vista de panel lado a lado. La función, construida sobre el modelo GPT-4o de OpenAI , también puede dar sugerencias e implementar cambios en las respuestas del panel del lado derecho sin necesidad de generar una respuesta completamente nueva. Parece un desafío directo a la función Artifacts de la startup de inteligencia artificial Anthropic para su chatbot Claude, que se lanzó en junio de 2024. También ofrece una vista de panel lateral para mostrar y ejecutar programas Python simples que se actualizan según las indicaciones del usuario. Canvas se está implementando para los usuarios de ChatGPT Plus y Teams, y en unos días se sumarán los suscriptores de los niveles Enterprise y Edu. Después de la versión beta, OpenAI planea poner la función a disposición de todos los usuarios de ChatGPT.  Los usuarios de la red social X predijeron Canvas antes de su lanzamiento inicial y especularon que OpenAI pronto lanzaría la función, lo que resultó ser correcto. Para qué sirve ChatGPT Canvas Daniel Levine, gerente de producto de Canvas, dijo a VentureBeat en una entrevista que, a veces, la ventana de chat vertical de arriba a abajo es demasiado limitada para algunos de los casos de uso más comunes. “Sabemos que mucha gente usa ChatGPT para escribir y codificar, esos son dos de los principales casos de uso que vemos”, dijo Levine. “Pero la interfaz de chat es un poco limitante, especialmente para proyectos en los que se quieren hacer revisiones o ediciones. Hay mucho intercambio de información y comparar cambios es difícil, por eso Canvas entra en acción”. Levine habla de pedirle a ChatGPT que edite sus respuestas. Sin Canvas, cuando los usuarios le piden a ChatGPT que genere un borrador de correo electrónico y sienten que la respuesta debe ser más larga, más divertida o más amigable, tienen que pedirle a ChatGPT nuevamente y las reescrituras aparecen en la misma conversación. A veces, el borrador cambia drásticamente; a veces, el cambio es sutil, pero a menudo, hay que desplazarse hacia adelante y hacia atrás para verificar dos veces qué cambió.  OpenAI espera que con Canvas el proceso sea más sencillo. Los usuarios pueden, por supuesto, volver a enviar ChatGPT, pero si solo quieren cambiar algunas palabras, no tienen que copiar el texto que todavía es un primer borrador a un documento diferente y editarlo ellos mismos.  Cómo utilizar Canvas Canvas se abrirá después de que los usuarios activen el selector de modelos, donde normalmente eligen qué versión de los modelos de OpenAI usar. ChatGPT también puede detectar cuándo sería apropiado abrir Canvas o cuándo el usuario envía el mensaje «Usar Canvas». Luego, pueden solicitarle a ChatGPT que escriba algo o genere código. Por ejemplo, si un usuario desea escribir un correo electrónico a un colega, le solicita a ChatGPT que lo haga y este abre la ventana de Canvas con el texto que acaba de generar.  Los usuarios pueden seguir pidiendo a ChatGPT que refine el texto, lo que se reflejará en la pantalla de Canvas. Las personas también pueden editar directamente en Canvas o dar instrucciones al chatbot resaltando algún texto. En cada ventana de Canvas, hay un conjunto de accesos directos para que los usuarios hagan clic y puedan ajustar la longitud del texto, el nivel de lectura, agregar emojis o incluso darle un toque final. ChatGPT también puede brindar sugerencias de texto, que se mostrarán en los cuadros de texto de Canvas, de manera similar a cómo se ven los comentarios en Google Docs. También se puede traducir a los idiomas admitidos.  El Canvas tiene un aspecto diferente según la tarea. El Canvas de escritura parece un documento de Word, mientras que el Canvas de codificación incluye números de línea para facilitar la edición del código. Los atajos para la codificación también serán diferentes. Los usuarios pueden revisar el código, corregir errores, agregar registros y comentarios y pasar a un lenguaje de codificación diferente a través de Canvas.  Compitiendo directamente con la función Artefactos de Anthropic Claude La ventana separada de Canvas y la colaboración de modelos recuerdan a otro chatbot con una ventana que permite a las personas ver claramente cualquier cambio realizado a través de nuevas indicaciones: Claude Artifacts de Anthropic . Michael Nunez de VentureBeat informó que Claude Artifacts hace que las interfaces accesibles y fáciles de entender sean una característica esencial en los chatbots y lo llamó «la característica de IA más importante de este año». A diferencia de Canvas, Artifacts ya está disponible para todos los usuarios del chat de Claude.  Los artefactos también permiten que las personas vean cómo se ve el código generado, ya que permiten que los usuarios le pidan a Claude que escriba el código, lo edite y luego vea los frutos del trabajo, como un prototipo de sitio web o juego. Canvas solo muestra a los usuarios el código generado y las ediciones relacionadas con él.  El nuevo campo de batalla de interfaces encabezado por Canvas de OpenAI y Artifacts de Anthropic apunta a un problema más pequeño que las aplicaciones de IA de terceros han estado tratando de resolver, que es cómo hacer que los chatbots sean más fáciles de leer y usar. Aplicaciones como Hyperwrite , Jasper y JotBot generan y ofrecen edición de texto. Muchos otros programas incluyen funciones de edición similares tanto para código como para texto con la idea de que los usuarios no tengan que salir de la ventana de chat para realizar cambios en su trabajo.  Con el tiempo, funciones como Canvas e incluso Artifacts pueden volverse comunes a medida que más personas quieran trabajar con chatbots de forma más ágil y colaborativa.  “Creemos que el trabajo colaborativo es una parte importante del lugar de trabajo”, afirmó Levine. “Por eso estamos dando un primer paso”. Venturebea. E.D

OpenAI lanza ChatGPT Canvas, desafiando a Claude Artifacts Leer más »

Dos Nobel galardonados por CRISPR intentan invalidar sus propias patentes

La batalla legal por controlar la edición genética acaba de dar un giro sorprendente tras un dictamen desfavorable a la primera solicitud de patente en Europa que realizaron ambos galardonados En la lucha que ya lleva una década para controlar CRISPR, la súper herramienta para modificar el ADN, ha sido común que los abogados intenten revocar patentes de competidores señalando errores o inconsistencias. Pero ahora, en un giro inesperado, el equipo que ganó el Premio Nobel de Química por desarrollar CRISPR está pidiendo cancelar dos de sus propias patentes fundamentales, según ha podido saber MIT Technology Review . La decisión podría afectar a quién se queda con los lucrativos derechos de licencia por el uso de la tecnología. La solicitud de retirar el par de patentes europeas, por parte de los abogados de los premios Nobel Emmanuelle Charpentier y Jennifer Doudna, llega después de una perjudicial opinión de agosto de una junta de apelaciones técnicas europea, que dictaminó que la primera solicitud de patente del dúo no explicaba CRISPR lo suficientemente bien como para que otros científicos pudieran usarla y no cuenta como una invención adecuada. Los abogados de los premios Nobel dicen que la decisión es tan equivocada e injusta que no tienen otra opción que cancelar preventivamente sus patentes, una táctica de tierra arrasada cuyo objetivo es evitar que el hallazgo legal desfavorable se registre como la razón. “Están tratando de evitar la decisión huyendo de ella”, dice Christoph Then, fundador de Testbiotech , una organización alemana sin fines de lucro que se encuentra entre quienes se oponen a las patentes, quien proporcionó una copia de la opinión técnica y la carta de respuesta a MIT Technology Review . “Creemos que estas son algunas de las primeras patentes y la base de sus licencias”. Descubrimiento del siglo Se ha dicho que CRISPR es el mayor descubrimiento biotecnológico del siglo, y la batalla para controlar sus aplicaciones comerciales (como plantas genéticamente alteradas, ratones modificados y nuevos tratamientos médicos) se ha prolongado durante una década. La disputa enfrenta principalmente a Charpentier y Doudna, galardonados con el Premio Nobel en 2020 por desarrollar el método de edición del genoma, contra Feng Zhang, investigador del Instituto Broad del MIT y de Harvard, que afirma haber inventado la herramienta por su cuenta. En 2014, el Instituto Broad dio un golpe de efecto al conseguir, y luego defender , la patente estadounidense que controla los principales usos de CRISPR. Pero la pareja Nobel Los científicos podían señalar sus patentes europeas como puntos brillantes en su lucha, y lo hicieron a menudo. En 2017, la Universidad de California, Berkeley, donde trabaja Doudna, promocionó su primera patente europea como emocionante, “amplia” y que “sentaba precedentes” . Después de todo, una región que representa a más de 30 países no sólo había reconocido el descubrimiento pionero de la pareja, sino que había establecido un estándar para otras oficinas de patentes de todo el mundo. También hizo que la Oficina de Patentes de Estados Unidos pareciera un caso atípico cuyas decisiones a favor del Instituto Broad podrían no sostenerse a largo plazo. Una nueva apelación que impugna las decisiones estadounidenses está pendiente en un tribunal federal. Una saga de larga duración Pero ahora la Oficina Europea de Patentes también dice, por diferentes razones, que Doudna y Charpentier no pueden reclamar su invención básica. Y se trata de una decisión que sus abogados consideran tan perjudicial y alcanzada de una manera tan injusta, que no tienen otra opción que sacrificar sus propias patentes. “No se puede esperar que los titulares de las patentes expongan la invención ganadora del premio Nobel… a las repercusiones de una decisión dictada en tales circunstancias”, dice la carta de 76 páginas enviada por los abogados alemanes en su nombre el 20 de septiembre. La abogada jefe de propiedad intelectual de la Universidad de California, Randi Jenkins, confirmó el plan de revocar las dos patentes, pero minimizó su importancia. “Estas dos patentes europeas son solo otro capítulo de esta larga saga que involucra a CRISPR-Cas9”, dijo Jenkins. “Seguiremos buscando reivindicaciones en Europa y esperamos que esas reivindicaciones en curso tengan una amplitud y profundidad significativas de cobertura”. Las patentes que se están desautorizando voluntariamente son EP2800811, otorgada en 2017, y EP3401400, otorgada en 2019. Jenkins agregó que los ganadores del Nobel aún comparten una patente CRISPR emitida en Europa, EP3597749, y otra que está pendiente. Ese recuento no incluye una maraña de solicitudes de patentes que cubren investigaciones más recientes del laboratorio de Doudna en Berkeley que se presentaron por separado. Libertad para operar La cancelación de las patentes europeas afectará a una amplia red de empresas de biotecnología que han comprado y vendido derechos en su búsqueda de lograr exclusividad comercial para nuevos tratamientos médicos o lo que se llama “libertad para operar”: el derecho a realizar investigaciones de corte de genes sin verse molestados por dudas sobre quién es realmente el dueño de la técnica. Estas empresas incluyen Editas Medicine, aliada del Instituto Broad; Caribou Biosciences e Intellia Therapeutics en Estados Unidos, ambas cofundadas por Doudna; y las empresas de Charpentier, CRISPR Therapeutics y ERS Genomics. ERS Genomics, con sede en Dublín y autodenominada “la empresa de licencias CRISPR”, se creó en Europa específicamente para cobrar tasas a terceros que utilicen CRISPR. Afirma haber vendido acceso no exclusivo a sus “patentes fundamentales” a más de 150 empresas, universidades y organizaciones que utilizan CRISPR en sus laboratorios, en sus productos de fabricación o de investigación. Por ejemplo, a principios de este año, Laura Koivusalo, fundadora de una pequeña empresa de biotecnología finlandesa, StemSight, aceptó una “tarifa estándar” porque su empresa está investigando un tratamiento ocular que utiliza células madre que fueron previamente editadas mediante CRISPR. Aunque no todas las empresas de biotecnología creen que sea necesario pagar por los derechos de patente mucho antes de tener un producto para vender, Koivusalo decidió que sería lo correcto. “La razón por la que obtuvimos la licencia fue la mentalidad nórdica de ser súper honestos. Les preguntamos si necesitábamos una licencia para realizar investigaciones y nos dijeron que sí”, afirma. En una presentación de diapositivas

Dos Nobel galardonados por CRISPR intentan invalidar sus propias patentes Leer más »

Cómo los equipos de ventas pueden utilizar hoy la IA para optimizar las conversiones

Mantenerse competitivo en las ventas modernas hoy en día significa efectivamente adoptar las últimas tendencias en tecnología Desde finales de 2022, cuando la IA generativa llegó a la conciencia del público gracias a ChatGPT de OpenAI, la IA ha estado a la vanguardia de este cambio, modificando la forma en que los equipos de ventas (como la mayoría de los demás equipos) operan y se conectan con los clientes. En esta publicación de blog, analizaremos cómo la IA está agilizando las actividades de ventas y ayudando a aumentar las tasas de conversión. Estas son las cinco formas principales en que los equipos de ventas pueden usar IA para personalizar mejor las interacciones, automatizar el trabajo administrativo y más, demostrando que no se trata solo de reducir costos, sino de transformar la forma en que se realizan las ventas. 1. Compromiso personalizado Un ciclo de ventas típico es complejo e implica múltiples puntos de contacto e interacciones antes de la conversión. Una personalización más profunda implica comprender las necesidades comerciales, los desafíos y las tendencias de la industria de un cliente potencial. Las herramientas de inteligencia artificial son especialmente adecuadas para analizar grandes conjuntos de datos y descubrir información que adapte las interacciones a estos contextos comerciales específicos. Por ejemplo, la IA puede analizar interacciones pasadas, como intercambios de correo electrónico y el historial de interacción, para determinar qué tipo de contenido o características de producto son más relevantes para un cliente específico. Esto permite a los equipos de ventas ofrecer soluciones que no son solo servicios o productos genéricos, sino que están personalizados para abordar los desafíos y objetivos únicos del cliente. La IA puede mejorar las estrategias de marketing basado en cuentas (ABM) al permitir que los equipos de ventas creen estrategias de contenido altamente personalizadas para cada cuenta. Al analizar los datos de varios puntos de contacto en el proceso de cotización a cobro , la IA ayuda a crear mensajes que resuenan profundamente en cada responsable de la toma de decisiones en la organización del cliente. Este enfoque específico no solo fortalece las relaciones, sino que también aumenta significativamente la probabilidad de cerrar acuerdos. 2. Previsión de ventas La previsión precisa de ventas es vital en las ventas B2B, donde la planificación estratégica y la asignación de recursos dependen en gran medida de los resultados de ventas previstos. La IA mejora significativamente la precisión y la fiabilidad de estas previsiones mediante el análisis de grandes cantidades de datos y la identificación de tendencias que son difíciles de detectar. Las herramientas de previsión de ventas impulsadas por IA utilizan datos históricos de ventas, condiciones del mercado y actividad de ventas en tiempo real para predecir el rendimiento de las ventas futuras. Estas herramientas emplean análisis predictivos para modelar diversos escenarios y sus posibles impactos en las ventas, lo que ayuda a los equipos de ventas a prepararse de manera más eficaz para los futuros movimientos del mercado. Además, las herramientas de previsión mejoradas con IA pueden actualizar dinámicamente las predicciones en función de nuevos datos. Esto significa que las previsiones de ventas no son estáticas, sino que evolucionan a medida que se dispone de más datos de interacción y transacciones. Este tipo de previsión dinámica garantiza que las estrategias de ventas sigan siendo ágiles y receptivas a los cambios, lo que aumenta la eficiencia general de las operaciones de ventas. Al aprovechar la IA para realizar pronósticos de ventas avanzados, las empresas B2B no solo pueden pronosticar con mayor precisión, sino también obtener conocimientos estratégicos que pueden conducir a un enfoque más proactivo en la gestión de los canales de ventas y las relaciones con los clientes. 3. Precios dinámicos La fijación dinámica de precios es una aplicación avanzada de inteligencia artificial que puede mejorar significativamente el rendimiento de las ventas B2B al optimizar las estrategias de fijación de precios en función de los datos del mercado en tiempo real y del comportamiento de los clientes. Esta tecnología permite a las empresas ajustar sus modelos de fijación de precios rápidamente en respuesta a los cambios en el mercado o la demanda de los clientes, lo que garantiza la competitividad y maximiza los ingresos. Las herramientas de inteligencia artificial como Competera analizan datos históricos de ventas, dinámicas de mercado, precios de la competencia y patrones de clientes para recomendar las estrategias de precios más efectivas para diversos productos y servicios. Por ejemplo, puede sugerir descuentos especiales para clientes de alto valor o ajustar los precios durante períodos de máxima demanda para aprovechar las tendencias del mercado. Los precios dinámicos impulsados ​​por IA pueden mejorar la satisfacción del cliente al ofrecer precios justos que reflejen el valor actual de los productos o servicios, que puede diferir entre segmentos de clientes o incluso entre clientes individuales en función de su historial de compras y lealtad. Al integrar modelos de precios dinámicos impulsados ​​por IA, los equipos de ventas no solo agilizan sus estrategias de precios, sino que también garantizan que sean adaptables, basadas en datos y estrechamente alineadas con las condiciones del mercado y las expectativas de los clientes. Para las empresas B2B que buscan perfeccionar sus estrategias de precios y ventas, un servicio de consultoría en IA es una ventaja crucial. Al incorporar análisis de datos avanzados y experiencia en IA/ML, estos servicios mejoran la toma de decisiones basada en datos, mejoran las relaciones con los clientes y aceleran los ciclos de ventas, lo que fomenta un proceso de ventas más competitivo y eficiente. 4. Calificación y priorización de clientes potenciales Cuando se cuenta con un flujo saludable de clientes potenciales, es fundamental gestionarlos de manera eficiente. Los equipos de ventas pueden usar la IA para mejorar drásticamente este proceso a través de sofisticados sistemas de puntuación de clientes potenciales, que evalúan y clasifican a los prospectos en función de su probabilidad de conversión. Esta priorización garantiza que los equipos de ventas centren sus esfuerzos en los clientes potenciales más prometedores, optimizando tanto el tiempo como los recursos. Las herramientas de IA integran diversos puntos de datos, como interacciones

Cómo los equipos de ventas pueden utilizar hoy la IA para optimizar las conversiones Leer más »

Anuncio de nuevos productos y características para Azure OpenAI Service, incluido GPT-4o-Realtime-Preview con capacidades de audio y voz

Nos complace anunciar la versión preliminar pública de GPT-4o-Realtime-Preview para audio y voz, una mejora importante del servicio Microsoft Azure OpenAI que agrega capacidades de voz avanzadas y amplía las ofertas multimodales de GPT-4o. Este hito consolida aún más el liderazgo de Azure en IA, especialmente en el ámbito de la tecnología de voz. El legado de Azure en este espacio se ha establecido desde hace mucho tiempo a través de su servicio de voz, que históricamente integraba voz a texto, texto a voz, voces neuronales y traducción en tiempo real en los principales productos de Microsoft, como Teams, Office 365 y Edge. Ahora, GPT-4o-Realtime-Preview amplía aún más los límites al integrar la generación de lenguaje con una interacción de voz fluida, lo que brinda a los desarrolladores las herramientas que necesitan para crear experiencias de IA más naturales y conversacionales. Desde la creación de asistentes virtuales hasta la potenciación de la atención al cliente en tiempo real, este nuevo modelo abre una amplia gama de posibilidades para las aplicaciones basadas en voz. El nuevo modelo también está integrado con Copilot, como parte del nuevo producto Copilot Voice anunciado. Basándose en los recientes anuncios de Azure OpenAI  Este anuncio continúa una serie de actualizaciones importantes dentro de Azure OpenAI Service, que incluyen:  ¿Qué novedades hay en GPT-4o-Realtime-Preview?  API GPT-4o-Realtime : con esta versión, GPT-4o evoluciona para admitir la entrada y salida de audio, lo que permite interacciones naturales basadas en voz en tiempo real que van más allá de las conversaciones tradicionales de IA basadas en texto. Esta capacidad multimodal permite a los desarrolladores crear aplicaciones de voz innovadoras con facilidad.  Área de acceso anticipado de Azure AI Studio : para los desarrolladores ansiosos por explorar, este espacio dedicado permite la experimentación temprana con las capacidades de la API GPT-4o-Realtime para audio. El estudio proporciona un entorno para probar, ajustar y optimizar las interacciones de voz antes de lanzarlas a entornos de producción. Un rendimiento que habla por sí solo  Los primeros clientes que utilizaron la API GPT-4o-Realtime para audio compartieron resultados notables que confirmaron su rendimiento e impacto:  Aplicaciones de GPT-4o-Realtime-Preview en el servicio Azure OpenAI  El potencial de GPT-4o-Realtime-Preview se extiende a varias industrias, transformando el modo en que operan las empresas y el modo en que los usuarios interactúan con la tecnología:  Casos de uso que impulsan la innovación  La versatilidad de GPT-4o-Realtime-Preview ya está transformando las operaciones en una variedad de sectores. A continuación, se muestran algunos de los primeros usuarios y cómo se benefician de esta tecnología:  “AOAI es una interfaz ideal para nuestra solución de ejecutivos de ventas virtuales HeyBosch, ya que es una solución que prioriza la conversación. Podemos integrar fácilmente AOAI a nuestra solución existente. Gracias por los ejemplos de referencia. El tiempo de respuesta del agente virtual ha mejorado sustancialmente, ya que ahora tenemos una única interfaz que combina ambos (voz y LLM). Esto ayuda a mantener la latencia al mínimo. Esta integración muestra el arte de la posibilidad de crear experiencias de usuario atractivas combinando GenAI, tecnología 3D y capacidades de procesamiento de voz en tiempo real”. — Vamsidhar Sunkari, experto sénior de Bosch Global Software Technologies Pvt Ltd.  “ Lyrebird Health se complace en incorporar capacidades de audio a la relación entre proveedor y paciente. El nuevo modelo GPT-4o-realtime-preview nos permitirá experimentar y lanzar nuevas experiencias para nuestros clientes y usuarios finales. Esto nos ayudará en nuestra misión de proporcionar la mejor tecnología para personas del planeta”. —Kai Van Lieshout, cofundador y director ejecutivo de Lyrebird Health Nuestro compromiso con una IA confiable  Azure se mantiene firme en su compromiso con la IA responsable , con la seguridad y la privacidad como prioridades predeterminadas. La API en tiempo real utiliza múltiples capas de medidas de seguridad, que incluyen supervisión automatizada y revisión humana, para evitar el uso indebido. La API en tiempo real se ha sometido a rigurosas evaluaciones guiadas por nuestro compromiso con la IA responsable. Consulta el Informe de transparencia de IA responsable de 2024 . Azure OpenAI Service proporciona funciones de seguridad de contenido integradas sin costo adicional, y Azure AI Studio ofrece herramientas para evaluar la seguridad de sus aplicaciones de IA, lo que garantiza una experiencia de IA segura y responsable. ¿Qué sigue con GPT-4o-Realtime API para audio? A medida que continuamos innovando y ampliando las capacidades de GPT-4o-Realtime API for Audio, estamos entusiasmados de ver cómo los desarrolladores y las empresas aprovecharán esta tecnología de vanguardia para crear aplicaciones impulsadas por voz que amplíen los límites de lo posible.  Ya sea que desee integrar capacidades de voz en sus operaciones de servicio al cliente o explorar las posibilidades de interacciones multilingües, GPT-4o-Realtime API for Audio brinda la flexibilidad y la potencia para transformar sus soluciones de IA. A partir de hoy, puede explorar estas nuevas capacidades en Azure OpenAI Studio , experimentar con ellas en Early Access Playground o integrar directamente la API en tiempo real en la versión preliminar pública en sus aplicaciones. Blog Microsoft. S.S.

Anuncio de nuevos productos y características para Azure OpenAI Service, incluido GPT-4o-Realtime-Preview con capacidades de audio y voz Leer más »

AlphaProteo genera nuevas proteínas para la investigación en biología y salud

Un nuevo sistema de IA diseña proteínas que se unen con éxito a moléculas objetivo, con potencial para avanzar en el diseño de fármacos, la comprensión de enfermedades y más. Todos los procesos biológicos del organismo, desde el crecimiento celular hasta las respuestas inmunitarias, dependen de las interacciones entre moléculas llamadas proteínas. Como una llave para una cerradura, una proteína puede unirse a otra, ayudando a regular procesos celulares críticos. Las herramientas de predicción de la estructura de las proteínas, como AlphaFold, ya nos han proporcionado una visión enorme de cómo interactúan las proteínas entre sí para realizar sus funciones, pero estas herramientas no pueden crear nuevas proteínas para manipular directamente esas interacciones. Sin embargo, los científicos pueden crear nuevas proteínas que se unan con éxito a moléculas específicas. Estos aglutinantes pueden ayudar a los investigadores a acelerar el progreso en un amplio espectro de investigación, incluido el desarrollo de fármacos, la obtención de imágenes de células y tejidos, la comprensión y el diagnóstico de enfermedades, e incluso la resistencia de los cultivos a las plagas. Si bien los enfoques recientes de aprendizaje automático para el diseño de proteínas han logrado grandes avances, el proceso aún es laborioso y requiere extensas pruebas experimentales. Hoy presentamos AlphaProteo , nuestro primer sistema de inteligencia artificial para diseñar nuevos aglutinantes de proteínas de alta resistencia que sirvan como elementos básicos para la investigación biológica y sanitaria. Esta tecnología tiene el potencial de acelerar nuestra comprensión de los procesos biológicos y ayudar al descubrimiento de nuevos medicamentos, el desarrollo de biosensores y más. AlphaProteo puede generar nuevos aglutinantes proteicos para diversas proteínas objetivo, incluida la VEGF-A , que está asociada con el cáncer y las complicaciones de la diabetes. Esta es la primera vez que una herramienta de IA ha podido diseñar un aglutinante proteico exitoso para la VEGF-A. AlphaProteo también logra tasas de éxito experimental más altas y afinidades de unión de 3 a 300 veces mejores que los mejores métodos existentes en siete proteínas objetivo que probamos. Aprender las intrincadas formas en que las proteínas se unen entre sí Es difícil diseñar aglutinantes de proteínas que puedan unirse firmemente a una proteína objetivo. Los métodos tradicionales requieren mucho tiempo y varias rondas de trabajo de laboratorio exhaustivo. Una vez creados los aglutinantes, se someten a rondas experimentales adicionales para optimizar la afinidad de unión, de modo que se unan lo suficientemente fuerte como para ser útiles. AlphaProteo, que se entrenó con grandes cantidades de datos de proteínas del banco de datos de proteínas (PDB) y más de 100 millones de estructuras predichas de AlphaFold, ha aprendido las innumerables formas en que las moléculas se unen entre sí. Dada la estructura de una molécula objetivo y un conjunto de ubicaciones de unión preferidas en esa molécula, AlphaProteo genera una proteína candidata que se une al objetivo en esas ubicaciones.Reproducir vídeo Ilustración de una estructura de unión de proteínas predicha que interactúa con una proteína objetivo. Se muestra en azul una estructura de unión de proteínas predicha generada por AlphaProteo, diseñada para unirse a una proteína objetivo. Se muestra en amarillo la proteína objetivo, específicamente el dominio de unión al receptor de la espícula del SARS-CoV-2 Demostración de éxito en importantes objetivos de unión a proteínas Para probar AlphaProteo, diseñamos aglutinantes para diversas proteínas objetivo, incluidas dos proteínas virales involucradas en la infección, BHRF1 y el dominio de unión al receptor de la proteína de pico del SARS-CoV-2 , SC2RBD, y cinco proteínas involucradas en el cáncer, la inflamación y las enfermedades autoinmunes, IL-7Rɑ , PD-L1 , TrkA , IL-17A y VEGF-A . Nuestro sistema tiene índices de éxito de unión altamente competitivos y la mejor fuerza de unión de su clase. Para siete objetivos, AlphaProteo generó proteínas candidatas in silico que se unieron fuertemente a sus proteínas deseadas cuando se probaron experimentalmente. En el caso de un objetivo en particular, la proteína viral BHRF1 , el 88 % de nuestras moléculas candidatas se unieron con éxito cuando se probaron en el laboratorio húmedo de Google DeepMind . Según los objetivos probados, los aglutinantes AlphaProteo también se unen con una fuerza 10 veces mayor, en promedio, que los mejores métodos de diseño existentes. Para otro objetivo, TrkA , nuestros aglutinantes son incluso más fuertes que los mejores aglutinantes diseñados previamente para este objetivo que han pasado por múltiples rondas de optimización experimental . Validando nuestros resultados Además de la validación in silico y las pruebas de AlphaProteo en nuestro laboratorio, contratamos a los grupos de investigación de Peter Cherepanov , Katie Bentley y David LV Bauer del Instituto Francis Crick para validar nuestros aglutinantes de proteínas. En diferentes experimentos, profundizaron en algunos de nuestros aglutinantes SC2RBD y VEGF-A más potentes. Los grupos de investigación confirmaron que las interacciones de unión de estos aglutinantes eran de hecho similares a lo que AlphaProteo había predicho. Además, los grupos confirmaron que los aglutinantes tienen una función biológica útil. Por ejemplo, se demostró que algunos de nuestros aglutinantes SC2RBD evitan que el SARS-CoV-2 y algunas de sus variantes infecten las células. El rendimiento de AlphaProteo indica que podría reducir drásticamente el tiempo necesario para los experimentos iniciales que involucran aglutinantes de proteínas para una amplia gama de aplicaciones. Sin embargo, sabemos que nuestro sistema de IA tiene limitaciones, ya que no pudo diseñar aglutinantes exitosos contra un octavo objetivo, TNFɑ , una proteína asociada con enfermedades autoinmunes como la artritis reumatoide. Seleccionamos TNFɑ para desafiar de manera sólida a AlphaProteo, ya que el análisis computacional mostró que sería extremadamente difícil diseñar aglutinantes contra él. Continuaremos mejorando y expandiendo las capacidades de AlphaProteo con el objetivo de abordar eventualmente objetivos tan desafiantes. Lograr una unión fuerte suele ser sólo el primer paso en el diseño de proteínas que podrían ser útiles para aplicaciones prácticas, y hay muchos más obstáculos de bioingeniería que superar en el proceso de investigación y desarrollo. Hacia un desarrollo responsable del diseño de proteínas El diseño de proteínas es una tecnología en rápida evolución que tiene un gran potencial para hacer avanzar la ciencia en todo, desde la comprensión de los factores que causan enfermedades hasta la aceleración del desarrollo de pruebas de diagnóstico para brotes de virus, el apoyo a procesos de fabricación más sostenibles e incluso

AlphaProteo genera nuevas proteínas para la investigación en biología y salud Leer más »

Tres consideraciones clave para las empresas que implementan una IA ética

La inteligencia artificial (IA) ha crecido exponencialmente y ha transformado las industrias en todo el mundo. A medida que se expanden sus casos de uso, han surgido preocupaciones en torno a la ética, la transparencia de los datos y el cumplimiento normativo. Chloé Wade, vicepresidenta de IDA Ireland, analiza la importancia de los marcos éticos de IA, las pautas regulatorias y las estrategias internas para garantizar una implementación responsable de la IA. La inteligencia artificial (IA) y sus múltiples usos han experimentado un crecimiento exponencial en los últimos años, convirtiéndose en una de las tecnologías más populares y debatidas de la década. Chloé Wade, vicepresidenta de Servicios Financieros Internacionales para el Reino Unido en IDA Ireland, analiza la importancia de implementar directrices internas y cumplir con las nuevas regulaciones gubernamentales, con la idea de que se debe priorizar la IA ética. Los últimos avances en IA y su popularidad han captado la atención mundial, creando titulares y generando debates en todo el mundo. Más de 100 millones de usuarios semanales están acudiendo en masa al Chat GPT de Open AI, y continuamente surgen nuevos casos de uso a medida que se continúa explorando el potencial de esta tecnología, desde su uso en el diagnóstico médico hasta la fabricación de robótica y automóviles autónomos. Un estudio realizado por la Oficina de Estadísticas Nacionales el año pasado descubrió que una de cada seis organizaciones del Reino Unido ha implementado alguna forma de IA, lo que contribuye a un mercado valorado en más de £16.8 mil millones.[1] Este rápido crecimiento plantea interrogantes sobre las implicaciones éticas de esta tecnología. Otro estudio de Forbes Advisor reveló que más de la mitad de la población del Reino Unido está preocupada por el uso de la IA, en particular en lo que respecta a la desinformación, la privacidad, la transparencia y los efectos de desplazamiento. [2] ¿Cuáles son estas preocupaciones, cómo están respondiendo los organismos reguladores y cuáles son las tres consideraciones clave para garantizar un marco ético de IA? Orientación regulatoria proveniente de la UE Una encuesta reciente de YouGov reveló las dos principales preocupaciones en torno a la IA: el 50% de los líderes empresariales del Reino Unido se centran en la futura regulación de la IA y el 46% en el uso de datos no válidos o sesgados. [3] Se están estableciendo nuevas medidas para garantizar que la IA tenga una orientación ética, en particular la Ley de Inteligencia Artificial de la UE de 2024, que entró en vigor oficialmente el 1 de agosto de 2024. A pesar de su naturaleza rígida, varias naciones están desarrollando marcos similares a los de la Comisión Europea para proteger al público y, al mismo tiempo, alentar a las organizaciones a aprovechar los numerosos beneficios de la IA. El Reino Unido ha adoptado un «enfoque pro innovación» para la regulación de la IA, pero aún no ha introducido un estatuto propio. Aunque se propuso un proyecto de ley regulatorio en marzo de 2024, todavía está siendo revisado. De hecho, la Ley de IA de la UE afecta a algunas empresas del Reino Unido: aquellas que «desarrollan o implementan un sistema de IA que se utiliza en la UE», según el CBI. Sin embargo, inculcar valores morales y éticos en estos modelos, especialmente en contextos de toma de decisiones importantes, presenta un desafío. Los códigos éticos en las empresas y los marcos regulatorios son dos formas principales de implementar la ética de la IA. Abordar en profundidad la ética y la responsabilidad en el desarrollo de software de IA puede proporcionar una ventaja competitiva sobre aquellos que descuidan estas cuestiones. Los informes y las evaluaciones se están volviendo esenciales a medida que regulaciones como la Ley de IA de la UE se vuelven efectivas para ayudar a las empresas a gestionar los riesgos asociados con la IA. El espíritu es garantizar que los sistemas de IA ayuden en lugar de reemplazar la toma de decisiones humana. La IA carece de la capacidad de tomar decisiones éticas o comprender los matices morales, lo que hace necesaria la supervisión humana, especialmente en aplicaciones críticas que afectan el bienestar y la justicia social. Se debe alentar el uso de la IA como herramienta para mejorar la eficiencia y la productividad de los trabajadores, al tiempo que se mantiene la alineación con la nueva legislación y los códigos éticos, como el Código de Conducta de BCS. [4] Pasos clave para la implementación interna de una IA ética Irlanda es un país que ha establecido una cantidad sustancial de procesos básicos para prepararse para el esperado crecimiento exponencial a largo plazo del mercado de IA. Con la publicación de la estrategia nacional de IA ‘AI—Here for Good’ [5], el gobierno irlandés espera que las organizaciones civiles y de servicio público adopten la IA de manera responsable e innovadora para mejorar la prestación de los servicios públicos actuales y nuevos. Irlanda ha ordenado que todas las aplicaciones de IA dentro del servicio público se adhieran a siete pautas éticas de IA, como se describe por el Grupo de expertos de alto nivel de la Comisión Europea sobre IA en sus Pautas éticas para una IA confiable. [6] Pero, ¿qué deberían hacer las empresas internamente? Las empresas deben reconocer en primer lugar la naturaleza cooperativa de la IA y cómo se pueden crear impactos positivos. Durante las etapas preliminares de implementación, los líderes empresariales deben abordar cómo procesan, almacenan y extraen datos dentro de su ecosistema de valor. Dado que los objetivos organizacionales y las estrategias corporativas difieren entre las empresas, se deben explorar las capacidades de modelos de IA específicos, incluidos los modelos de aprendizaje automático (ML) y los modelos generativos, para determinar el uso óptimo de esta tecnología dentro de las operaciones. Existen varias estrategias que pueden aumentar la confiabilidad del software de IA. La evaluación de riesgos es un aspecto fundamental de estos procesos, como herramienta para que los desarrolladores e ingenieros de sistemas determinen si los casos de uso son de alto

Tres consideraciones clave para las empresas que implementan una IA ética Leer más »

Scroll al inicio