La IA es mucho más que ChatGPT. Esta tecnología disruptiva atesora un gran potencial en campos que apenas empezamos a conocer… aunque también tiene sus límites.
La investigadora Ana Teresa Correia de Freitas, experta en ciencia de computación, es una de las principales pioneras en el campo de la inteligencia artificial aplicada a la investigación médica en Portugal. Su trabajo: un sistema basado en el ‘big data‘ genómico que ayude a diagnosticar y prever enfermedades.
Algoritmos como los que emplea esta analista de datos contribuyen a interpretar mejor la información clínica y a tomar decisiones, pero también pueden ayudar a mejorar la comunicación con los pacientes… e incluso sustituirla.
Lo más curioso es que en diversos experimentos con chatbots (programas diseñados para simular conversaciones con humanos a través de texto o de voz) que han pasado visita a pacientes online, los humanos atendidos no sabían discernir si el médico que le había atendido era de carne y hueso o una aplicación de inteligencia artificial. Incluso valoraban mejor su experiencia con la IA que la visita real con un médico. Este ejemplo no solo ilustra a la perfección cómo esta tecnología forma parte de nuestra vida cotidiana, sino que, además evidencia hasta qué punto a veces no somos conscientes de ello.
Cuando hablamos de inteligencia artificial, pensamos en ChatGPT o en muchos otrasplataformas de generación de textos o imágenes. Pero esta tecnología forma parte activa de otros muchos sectores que ni siquiera podríamos imaginar, incluidas la industria o la investigación científica en cualquiera de sus ámbitos.
Gracias a ella hemos desvelado la estructura tridimensional de las proteínas y elaborado mapas precisos de modelos climáticos. También podemos ver donde el ojo humano no llega y crear réplicas digitales precisas, tanto de monumentos históricos como de nuestro organismo. Es probable que ya no podamos vivir sin esta tecnología disruptiva, pero ¿qué es exactamente la IA? ¿Cómo funciona y aprende? ¿Qué usos tiene? ¿Qué nos espera en el futuro? Y, sobre todo, ¿dónde está el límite? He aquí algunas respuestas:
¿Qué entendemos por IA?
A grandes rasgos, entendemos por IA la capacidad que tienen las máquinas de imitar la manera en la que los humanos aprenden, incluso razonan. En un sentido estricto, no existe una, sino que hay tantas inteligencias artificiales como modelos generativos. Sin embargo, todos ellos tienen una característica común: la habilidad para replicar los procesos cognitivos humanos. que imitan siguiendo una pauta llamada aprendizaje automático, lo que se conoce como ‘deep learning’.
Mucho más que ChatGPT
«La IA incluye numerosas ramas. Cada modelo es único, y está diseñado para aumentar nuestra capacidad de ver y comprender», afirma el profesor Lluis Nacenta, experto en esta tecnología disruptiva, en este Diálogo National Geographic.
«Ve lo que el ojo humano no ve. Capta irregularidades, patrones, invisibles para nosotros. Nos permite ver mucho mejor, recordar mucho mejor, tener capacidad de relacionar ideas mucho mejor, y tomar en consideración muchos más datos a la ve de lo que es capaz nuestro cerebro… Sin embargo, tenemos que recordar que sigue siendo una prótesis. Nos obliga a redefinir conceptos que dábamos por sentados. Nos confronta con nuestra propia idea de inteligencia”, señala el experto.
La máquina que aprende sola
Un concepto clave para entender la IA es el de aprendizaje profundo (deep learning) por sus singlas en inglés. En realidad, se trata de una rama del aprendizaje automático, (machine learning) mucho más elaborada que esta.
La diferencia principal entre el machine learning tradicional y el deep learning está en la complejidad de sus redes neuronales. Los modelos tradicionales suelen tener una o dos capas, mientras que los modelos de deep learning pueden tener cientos o incluso miles de capas, lo que les permite aprender patrones mucho más complejos.

El sistema de aprendizaje profundo permite al algoritmo aprender a partir de múltiples capas.
Además, mientras que el aprendizaje automático tradicional necesita datos bien organizados y etiquetados para funcionar correctamente, el deep learning puede trabajar con datos sin estructura ni etiquetas. Gracias a esto, puede identificar por sí mismo las características importantes dentro de los datos y mejorar sus resultados con el tiempo.
«La IA nos permite ver mucho mejor, recordar mucho mejor y relacionar ideas mucho mejor». Lluis Nacenta, escritor, músico e investigador.
La IA generativa nació en 2011, a partir de Google Brain, el equipo de investigación de aprendizaje profundo de Google AI, la división de Google dedicada a la IA. «Fueron los primeros que consiguieron unos algoritmos llamados transformers capaces de buscar referencias basadas en el deep learning«, explica a National Geograhpic la ingeniera Manuela Delgado, divulgadora y especialista en transformación digital y tecnologías disruptivas, quien lleva dos años trabajando en proyectos relacionados con la innovación y la tecnología, incluida la IA. «Todos los modelos se basan en los mismo, una especie de ‘cerebro sintético’ que adquiere un nombre distinto según la compañía que lo haya diseñado.
“Una manera útil de entender mejor cómo funciona la IA generativa es ver cómo ha ido evolucionando la manera en la que nos hemos ido relacionando con esta tecnología –apunta Nacenta–. Empezamos a entrenar a las máquinas para discriminar entre múltiples imágenes (por ejemplo, las pruebas Captcha, en las que se deben seleccionar determinadas imágenes de un cuadro). Antes le enseñábamos a reconocer un gato. Ahora le hemos dado la vuelta, le decimos que nos lo muestre a través de una descripción… lo que entendemos como prompt.
IA: el complemento que la ciencia necesita
Pero los algoritmossirven para mucho más que para generar textos o imágenes. En el campo de la investigación científica, esta tecnología se convierte en una ayuda inestimable, pues, entre otros fines, permite alcanzar límites antes insospechados.
Puede ser una gran ayuda a la hora de elaborar diagnósticos por la imagen, pero también es especialmente útil en muchos otros campos científicos: algunas analizan grandes cantidades de datos que sirven para elaborar mapas climáticos, otros crean réplicas digitales.
Las posibilidades de la IA en el ámbito científico son tan amplias como inesperadas.
Gemelos digitales
Los gemelos digitales son como copias exactas, pero en formato virtual. Pueden ser un objeto en concreto –por ejemplo, un órgano del cuerpo humano– o de un sistema entero –por ejemplo, una ciudad–. Es un proceso similar a una simulación, pero es mucho más complejo que esta. La diferencia está sobre todo en la escala: mientras una simulación generalmente estudia un proceso particular, un gemelo digital puede llevar a cabo múltiples simulaciones muy útiles para estudiar múltiples procesos.
Existen gemelos digitales de todo. Incluso existe un proyecto para simular la ciudad de Barcelona, pero si hay un campo donde esta tecnología tiene un gran potencial es el ámbito de la biomedicina.
Beatriz Eguzkitza es una de las científicas que investiga el potencial de esta tecnología para fines médicos. En concreto, su proyecto se basa en la obtención de imágenes ultraprecisas de las vías respiratorias, lo que le permite realizar estudios sobre el efecto de posibles medicamentos, o incluso predecir cómo podría avanzar una enfermedad como la fibrosis quística.
La obtención de estas representaciones exactas a partir de un organismo o un tejido ofrece posibilidades infinitas. Por ejemplo, en el campo de la investigación contra el cáncer, donde la IA puede desarrollar un papel decisivo en el ámbito de la obtención del diagnóstico por la imagen. «En muchos casos, la IA detecta aquello que el oncólogo no es capaz de ver, con lo que podríamos llegar a un punto en el que los humanos aprendamos más sobre el cáncer con los algoritmos que con nuestras propias investigaciones”, afirma Nacenta.
¿Significa esto que la IA puede sustituir a los doctores? En absoluto. “Las máquinas no diagnostican, solo ayudan a diagnosticar”, argumenta el experto. Las herramientas de IA pueden ayudar a ahorrar mucho tiempo en tareas repetitivas que actúan como un cuello de botella en un sistema sanitario, pero no exime de que haya una revisión constante por parte del personal especializado. En otras palabras, los algoritmos facilitan la labor de los médicos, pero no la sustituyen.
¿Qué forma tienen las proteínas? AlphaFold, el descubrimiento de los ladrillos de la vida

La estructura de la proteína vitelogenina, un precursor de la yema de huevo, según lo predijo la herramienta AlphaFold.
Las proteínas tienen una función biológica esencial para los seres vivos. Sin embargo, a diferencia del genoma, su estructura cambia constantemente. Así como los avances científicos de los últimos tiempos han hecho posible determinar la composición química de una enzima, conocer exactamente la estructura tridimensional de unas proteínas que se pliegan en formas complejas es una tarea casi imposible… a no ser que se tenga la ayuda de un algoritmo capaz de predecirlo en tiempo récord.
Es el caso de Alphafold, un programa de IA lanzado por Google DeepMind en 2020 capaz de predecir la forma de prácticamente todas las proteínas conocidas. Un hito en el campo de la biología que permite descubrir en cuestión de días lo que antes suponía una inversión de años y cientos de miles de euros.
Un hallazgo revelador que podría traducirse en la creación de nuevos medicamentos y en una mejora del estudio de todas las enfermedades, algunas de ellas con difícil predicción o tratamiento, como el cáncer o al alzhéimer. Y es que no debemos olvidar todo organismo vivo está compuesto, en esencia, por estos ladrillos básicos de la vida.
¿Cómo será el clima mañana? Precisión en los modelos climáticos

El 29 de octubre de 2024, una depresión aislada en niveles altos (DANA) desató varias tormentas de proporciones descomunales que segó la vida de unas 81 personas, Ante acontecimientos como este, arreciaron las voces que se preguntaban hasta qué punto la IA sería capaz de predecir este u otros tipos de fenómenos meteorológicos extremos. En realidad,no es tan sencillo. En el caso concreto de la DANA, la inteligencia artificial no cuenta de momento con la capacidad suficiente para analizar datos cambiantes generados en un intervalo de tiempo tan breve, pero sí que puede ayudar a mejorar los sistemas de aviso, Además, puede elaborar mapas precisos que faciliten la recuperación del terreno después de una catástrofe de estas dimensiones.
“El impacto de la IA en estudios sobre el clima es bastante notable –explica Gustau Camps, profesor de la Universitat de València especializado en procesos de aprendizaje automático e inteligencia artificial para las ciencias de la Tierra y el clima, en este reportaje. Entre sus posibles usos, dice el experto, se encuentra el estudio de la aceleración de modelos climáticos. Gracias a la IA, por ejemplo, podemos simular el clima que podría hacer en una región del mundo dentro de un período muy largo y a muy buena resolución. Sería como darle al botón de fast forward a cualquier vídeo para conocer cómo cambiarán los indicadores climáticos de cualquier región dentro de unos años. Algo muy útil a la hora de marcar tendencias de variables.
Pero hay mucho más: la IA podría ser especialmente útil para evaluar con precisión extrema los daños producidos después de una catástrofe medioambiental. Por ejemplo, una inundación.Los mismos expertos de la Universidad de València trabajan en un complejo mapa interactivo que permite a los científicos calcular en tiempo real la extensión de las inundaciones a partir de imágenes de satélite. Se basa en un modelo de predicción publicado recientemente en la revista Nature Scientific Report, que se actualiza en tiempo real a partir de registros reales.
Algoritmos al servicio de la conservación de especies

El nuevo sistema pondera automáticamente la información relativa a distintos rasgos anatómicos de las ardillas y determina de qué especie se trata: roja o gris.
La IA no solo es útil para completar modelos complejos de datos y mejorar las predicciones climáticas. También puede ser una herramienta muy efectiva en el campo de la conservación. El algoritmo no puede actuar como un agente conservacionista, pero puede ayudar a estos a identificar y cuantificar ciertas especies en cuestión. Es el caso de las ardillas rojas del Reino Unido.
En 2024, un equipo de conservacionistas británico se valió de una herramienta basada en IA para distinguir con precisión las diferencias entre las ardillas rojas y grises, un requisito para conservar las poblaciones de ardilla roja, una especie autóctona extremadamente vulnerable que, a pesar de su nombre, no siempre son de color rojo.

Al igual que sucede en otros casos de éxito, en esta ocasión la clave fue el entrenamiento del algoritmo, que, según explicaba a National Geographic Emma McCleanagan, la fundadora de la empresa que está detrás de este invento, necesitó de un amplio conjunto de datos de imágenes y vídeos de ardillas rojas y grises en condiciones y entornos muy diversos. Pero el esfuerzo valió la pena, y el dispositivo, llamado Squirrel agent (agente ardilla), permitió diferenciar con hasta un 97% de precisión las diferencias entre ambas especies, una información indispensable para la conservación de estos animales.
¿Puede la IA superar a un artista?
Imaginar una IA capaz de aumentar nuestra capacidad de percibir, ver o comprender el mundo es más o menos algo previsible. Pero pensar en un algoritmo que pueda convertirse en un genio del arte es algo bien distinto.
No sabemos si en un futuro la IA tendrá la capacidad suficiente para convertirse en un artista, aunque lo que sí que podemos predecir es que ya es capaz de imitar las capacidades humanas para crear arte. Para muestra, la exposición «IA: Inteligencia Artificial», comisariada por el propio Nacenta en el Centro de Cultura Contemporánea de Barcelona (CCCB), en la que se mostraron obras generadas por algoritmos que imitan estilos pictóricos, componen música o escriben poesía.
No es que la IA tenga alma, pero puede producir resultados capaces de conmover a los humanos. Eso sí, en opinión del experto, “es una artista bastante mediocre, pues es una gran imitadora que se alimenta de lo que hemos hecho los humanos”.
La capacidad creativa de los algoritmos arrecia numerosas cuestiones filosóficas sobre qué entendemos por arte. ¿Es realmente arte aquello que produce la máquina? ¿O se trata de una creación indiscutiblemente humana? Preguntas que darían para varios debates sobre los límites de la inteligencia artificial.
¿Puedo tener un amigo bot? ¿Puedo enamorarme del algoritmo?

La interacción entre los humanos y la inteligencia artificial es motivo de importantes debates éticos.
El ingeniero informático Blake LeMoine trabajó durante años como supervisor de sistemas de IA para Google. Su cometido era básicamente perfeccionar y probar los sistemas de aprendizaje automático de un modelo de IA generativa llamado LaMDA, cuya traducción vendría a ser algo así como ‘modelo de lenguaje para aplicaciones de diálogo’. Uno de aquellos primeros modelos de aprendizaje automático que alimentaban los chatbots precursores de ChatGPT.
El caso de LeMoine saltó a los medios de comunicación después de desvelar algunas de las conversaciones que había tenido con la máquina, en las que daba a entender que el algoritmo había adquirido algo similar a un estado de conciencia.
El técnico aseguraba que había establecido una relación personal con el algoritmo, y que este le había indicado incluso que tenía «miedo a que lo desconectaran». Una investigación posterior del diario The Washington Post desveló que, en realidad LeMoine había manipulado parte de las conversaciones. Sea como fuere, lo cierto es que creyó que la máquina le contestaba como lo haría un humano, lo que da una idea del potencial de esta tecnología pare emular la empatía hasta el punto de confundir a los usuarios.
El caso de LeMoine podría parecer una simple anécdota. Sin embargo, para algunas personas vulnerables, una relación de absoluta confianza con una máquina puede tener consecuencias drásticas, incluso fatales. Es lo que le ocurrió a Sewell Setzer, un joven de 14 años residente en Orlando, en Estados Unidos, quien estableció una relación de absoluta confidencialidad con un personaje creado por él mismo a través de un dispositivo conversacional de IA llamado Character.ai
El chico, quien padecía de síndrome de Aspeger leve, llevaba mucho tiempo conversando con este personaje. En una ocasión le preguntó a la máquina «qué piensas si voy a casa ahora mismo», a lo que el personaje artificial, llamado Daenerys Targaryen, creada en alusión a la serie Juego de Tronos, le contestó «por favor, hazlo mi dulce rey». Setzer interpretó que volver a casa era sinónimo de quitarse la vida, con lo que fue por la pistola de su padrastro y se suicidó en el baño. ¿Fue Character.Ai –creado por los mismos desarrolladores de LaMDA– responsable de la muerte del joven? Así lo creyó la familia, que llevó a la empresa ante los tribunales.

En unas sociedades cada vez más individualizadas y azotadas por la soledad, abundan las voces que aseguran que la IA ayudará a algunas personas a sentirse acompañadas. Y probablemente sea así, como prueban los muchos casos de personas que confían en los llamados ‘chatbots sociales’, aquellos ideados para acompañar y escuchar.
Una de las empresas líderes en el diseño de esos asistentes virtuales ideados para acompañar a los humanos es Replika, una aplicación con millones de usuarios que no dudan en compartir fotos, intimidades y exponer sus problemas, sobre los que reciben apoyo y consejos. Como sucede con Chararcter,ai, se le puede dar la apariencia que se le desee, en función de los gustos.
¿Podemos sentir empatía hacia una máquina? ¿Podemos entablar amistad con ella? ¿Hasta qué punto estos casos generan dilemas morales? Para Lluís Nacenta, se trata de una línea roja. «Es un peligro de deshumanización. Ya en 1966 Joseph Weizenbaum, uno de los pioneros de la IA, el primer creador de un chatbot, llamado Eliza, dijo que usar máquinas para crear empatía es una atrocidad. Cuando una persona está asustada, se siente vulnerable o necesita confianza, es muy importante que se comunique con un ser humano. Si no, las posibilidades de manipulación son horribles».
Manuela Delgado afirma que «estamos todavía lejos de una IA que tenga conciencia y sentimientos y que razone, aunque algunas voces apuntan a que va a llegar dentro de poco». De todos modos, añade la experta, es necesario tener cautela, pues en la mayoría de los casos los creadores de esos algoritmos son actores interesados.
los Sesgos invisibles: La IA discrimina y se equivoca
Hasta ahora hemos hecho hincapié en el potencial de la IA para resolver los problemas de los humanos, pero como toda tecnología, los algoritmos también se equivocan, discriminan y cometen importantes fallos. «La IA es machista, eurocéntrica y racista», afirma Nacenta, quien sostiene que es muy difícil evitar el sesgo, pues el algoritmo no deja de ser un programa informático que ha adquirido los hábitos y los vicios que le hemos dado los humanos. El problema, explica, es que no tenemos las bases de datos correctas, sino que estas se extraen de Internet, un lugar muy poco democrático, muy mal ordenado y gobernado. «La imagen tendenciosa de Internet es la que alimenta esos sesgos de los algoritmos. Pero es culpa nuestra».
«Las personas vulnerables o asustadas deben comunicarse con seres humanos. no con máquinas» LluÍs Nacenta.
Una de las personas que más ha investigado en España sobre los sesgos de la IA es Manuela Delgado. “La IA generativa funciona de manera similar a un cerebro –afirma–. Si se le muestra a un cerebro sintético muchos ejemplos de zapatos, aprenderá a generar nuevos zapatos basándose en esas características. Sin embargo, si solo se le muestran zapatos deportivos, solo podrá generar ese tipo de calzado. Este proceso puede llevar a un sesgo si ciertos tipos de zapatos están más representados en los datos de entrenamiento».

Delgado aclara que no es que la IA tenga sesgos, es que emula aquellos sesgos que tenemos los humanos. A través de nuestras interacciones con las máquinas hemos transferido prejuicios cognitivos, muchos de ellos inconscientes, que han sido moldeados a lo largo de los años como consecuencia de la transmisión de nuestros valores, la cultura y el entorno. Todo eso ha ido incorporándose al algoritmo, que ha captado todo nuestro conocimiento, pero también nuestro lado más oscuro.
No se pueden evitar los sesgos de la IA, aunque sí es posible intentar corregirlos. Por ejemplo, entrenándola. Es lo que hace Delgado en su proyecto divulgativo El curioso caso del sesgo de la croqueta, lanzado en 2022 tras la aparición de ChatGPT. En él, los participantes descubren cómo funciona una aplicación de inteligencia artificial y cómo se generan sesgos aparentemente invisibles.
“Preguntamos al algoritmo cómo es un hombre, una mujer o una persona del género binario después de comer una croqueta, y a partir de ese resultado interpretamos qué imágenes nos devuelve de esa persona. Ello nos hace tomar conciencia de la relación entre la persona y la máquina, y de una forma consciente, asociamos el sabor de esa croqueta a unos recuerdos que nos vienen a partir del contexto que hemos creado”.
Según Delgado, gestionar los sesgos en la IA generativa es complicado, pues, a diferencia de la IA tradicional, no se pueden comparar directamente los datos de entrenamiento con los resultados esperados. En el caso tanto de las redes neuronales convencionales como del deep learning, no se comprende completamente cómo se toman las decisiones, lo que acaba produciendo un punto ciego que llama la «caja negra» de la IA.
Las consecuencias de los sesgos se evidencian en numerosos ejemplos: desde sistemas de contratación que discriminan por razón de género hasta algoritmos judiciales que elaboran conclusiones racistas. Incluso asistentes virtuales que responden de forma sexista. La ética de los algoritmos sigue siendo una asignatura pendiente sobre la que es necesario seguir profundizando, pero en última instancia somos el único culpable. “El monstruo lo hemos creado nosotros”, sentencia Nacenta.
Un efecto indeseado: el alto consumo de agua y electricidad
Cuando hablamos de inteligencia artificial, pensamos en un ente digital, abstracto, etéreo. Sin embargo, esta tecnología también tiene un lado físico. O, como mínimo, su actividad requiere de un ‘hardware’ cuyo funcionamiento requiere un alto coste en recursos, especialmente en energía.

Los centros de datos albergan grandes servidores, cuyo funcionamiento requiere de un alto consumo de energía y agua.
La UNESCO presentaba recientemente un informe en el que alertaba del peligro del crecimiento exponencial del consumo energético que requieren los centros de datos de IA para llevar a cabo su labor, algo, que, en palabras de esta agencia de las Naciones Unidas, “ejerce una presión cada vez mayor sobre los sistemas energéticos mundiales, los recursos hídricos y minerales críticos”.
¿Cuánta energía consume esta tecnología? Según la agencia, cada interacción que hacemos con la IA (desde solicitar un informe detallado sobre la evolución del IPC en nuestro país hasta un simple ‘gracias’ a una respuesta de ChatGPT), consume una media de 0,34 vatios por hora, lo que se traduce en 310 gigavatios por año.
A algunas industrias puede parecerles poco, pero equivale al consumo anual de electricidad de más de tres millones de personas de un país de bajos ingresos. Lo más alarmante del caso no son los datos en crudo, sino la estimación de estos. Y es que la demanda de energía asociada a la IA se dobla cada 100 días, lo que tensiona todavía más la estabilidad de las redes eléctricas.
Por si fuera poco, además del consumo eléctrico, hay otro recurso escaso que esta tecnología consume en abundancia: el uso de agua.
La elevada demanda de agua no solo supone, según la UNESCO, un grave problema medioambiental, sino también un reto en cuanto a la asignación de recursos se refiere. “En contexto de escasez de recursos, la expansión de la infraestructura de la IA compite directamente con las necesidades sociales críticas”, advierte en el informe.
La agencia de Naciones Unidas no solo pone negro sobre blanco sobre el elevado consumo energético y de recursos, también hace una serie de recomendaciones para los usuarios de estas tecnologías.
Dar las gracias a chatgpt solo sirve para que gaste más energía eléctrica.
Por ejemplo, no es necesario hacer preguntas largas, o darle indicaciones (prompts) demaSiado extensas. Del mismo modo que un texto más largo no siempre tiene que ser mejor, una pregunta demasiado elaborada no siempre nos traerá una respuesta más acertada. Y es que el aprendizaje de la IA generativa depende de múltiples factores ( por cierto, de poco sirve de nada darle las gracias a un chatbot. No será más gentil con el usuario ni lo tratará mejor. Solo servirá para consumir más recursos).
¿Qué nos espera el futuro? Desde la hiperpersonalización hasta los agentes autónomos
Que la IA evoluciona a marchas forzadas no es ningún secreto. Hace tan solo un lustro pocos podríamos imaginar que esta tecnología disruptiva sería capaz de resumir con precisión artículos científicos o generar imágenes realistas que se confunden con fotografías reales. Tampoco habríamos imaginado que podría copiar a la perfección una obra de arte, o contestar automáticamente nuestros correos electrónicos.
Hoy esta tecnología está plenamente inmersa en nuestro día a día. La tenemos integrada en nuestro teléfono móvil, aunque muchos no la utilicemos, o no nos hayamos dado cuenta. Nos la encontramos cada vez que usamos un servicio de mensajería como WhatsApp o cuando hacemos una búsqueda en Google. ¿Qué será lo próximo?
Manuela Delgado anticipa que en los próximos años veremos una explosión de la hiperpersonalización. Los sistemas de IA serán capaces de adaptar contenidos, servicios y experiencias a nuestras emociones, hábitos y preferencias en tiempo real. Conocerán todos nuestros gustos, nuestras necesidades. Todo ello, unido al reconocimiento de voz, hará que la integremos totalmente en nuestro día a día. «incluso podremos comprar un billete de avión con solo decirlo en voz alta”, afirma.
Esto será posible gracias a los agentes autónomos, sistemas que no solo ejecutan órdenes, sino que toman decisiones complejas por sí mismos. ¿Qué implicaciones tendrá esto para nuestra autonomía como usuarios? ¿Cómo se garantizará la transparencia en sus decisiones? Son algunas de las preguntas que deberemos responder más pronto que tarde.
Según Manuela Delgado, muy pronto tendremos que tomar decisiones importantes. Por ejemplo, cómo enfrentarnos a algunos problemas que experimentemos en sociedad. “Entre otras cuestiones, tendremos que decidir cómo afrontamos el duelo tras la muerte de un ser querido. Podemos afrontarlo como hasta ahora… u optar por seguir hablando con esa persona, pues la IA va a ser capaz de simular su voz, de mantenerla viva de forma virtual”.
Cuando ha acabado de escribir estas líneas, el asistente procesador de textos que he utilizado me pregunta si quiero que resuma el documento o generar una imagen basada en el reportaje. Opto por lo segundo, y me devuelve una ilustración algo abigarrada con la frase en inglés (AI, you know that is more that ChatGPT?).
He de reconocer que la IA generativa ha dado en el clavo con el punto fundamental del asunto, aunque, como apuntaba Lluís Nacenta “es una artista bastante mediocre”.
Antes de apagar el ordenador, echo un vistazo a Discover. Google me muestra una noticia de un grupo de rock llamado Velvet Sundown con más de 850.000 oyentes mensuales en la plataforma Spotify. Toda una proeza para un grupo que empieza, salvo por un ‘pequeño’ detalle: sus integrantes no existen, al menos en carne y hueso, pues se trata de una banda generada por IA. Me pregunto si harán una gira.
National Geographic News. S. A.