El Portal de las Tecnologías para la Innovación

Categoría: La Ética y la Inteligencia Artificial

¿Será posible descifrar un lenguaje alienígena? Descubrir cómo se comunica la IA puede ser clave

En la película de ciencia ficción Arrival (La llegada) , de 2016 , una lingüista se enfrenta a la difícil tarea de descifrar un idioma alienígena compuesto por frases palindrómicas que se leen igual al derecho y al revés y están escritas con símbolos circulares. A medida que descubre varias pistas, distintas naciones del mundo interpretan los mensajes de forma diferente y algunas suponen que transmiten una amenaza. Si la humanidad se encontrara hoy en una situación así, nuestra mejor apuesta podría ser recurrir a investigaciones que descubran cómo la inteligencia artificial desarrolla los lenguajes. Pero, ¿qué define exactamente a una lengua? La mayoría de nosotros utilizamos al menos una para comunicarnos con las personas que nos rodean, pero ¿cómo surgió? Los lingüistas han estado reflexionando sobre esta misma cuestión durante décadas , pero no hay una manera sencilla de averiguar cómo evolucionó el lenguaje . El lenguaje es efímero, no deja rastros examinables en los registros fósiles. A diferencia de los huesos, no podemos desenterrar lenguas antiguas para estudiar cómo se desarrollaron a lo largo del tiempo. Aunque no podamos estudiar la verdadera evolución del lenguaje humano, tal vez una simulación pueda proporcionarnos algunas pistas. Ahí es donde entra en juego la IA, un fascinante campo de investigación llamado comunicación emergente , que he dedicado los últimos tres años a estudiar. Para simular cómo puede evolucionar el lenguaje, les damos a los agentes de IA tareas sencillas que requieren comunicación, como un juego en el que un robot debe guiar a otro a una ubicación específica en una cuadrícula sin mostrarle un mapa. No les imponemos (casi) ninguna restricción sobre lo que pueden decir o cómo pueden hacerlo: simplemente les damos la tarea y les dejamos que la resuelvan como quieran. Dado que resolver estas tareas requiere que los agentes se comuniquen entre sí, podemos estudiar cómo evoluciona su comunicación con el tiempo para tener una idea de cómo podría evolucionar el lenguaje. Se han realizado experimentos similares con seres humanos . Imagínese que usted, un hablante de inglés, está emparejado con un hablante de otro idioma. Su tarea consiste en indicarle a su compañero que recoja un cubo verde de una variedad de objetos que hay sobre una mesa. Podrías intentar hacer un gesto con las manos para formar un cubo y señalar el césped que hay fuera de la ventana para indicar el color verde. Con el tiempo, desarrollarían juntos una especie de protolenguaje. Tal vez crearían gestos o símbolos específicos para “cubo” y “verde”. A través de interacciones repetidas, estas señales improvisadas se volverían más refinadas y consistentes, formando un sistema básico de comunicación. Esto funciona de manera similar con la IA: mediante ensayo y error, los algoritmos aprenden a comunicarse sobre los objetos que ven y sus interlocutores aprenden a comprenderlos. Pero ¿cómo sabemos de qué están hablando? Si solo desarrollan este lenguaje con su interlocutor artificial y no con nosotros, ¿cómo sabemos qué significa cada palabra? Después de todo, una palabra específica podría significar “verde”, “cubo” o peor aún, ambas cosas. Este desafío de interpretación es una parte clave de mi investigación. Descifrando el código La tarea de comprender el lenguaje de la IA puede parecer casi imposible al principio. Si intentara hablar en polaco (mi lengua materna) con un colaborador que solo habla inglés, no podríamos entendernos ni siquiera saber dónde empieza y termina cada palabra. El desafío con los lenguajes de IA es aún mayor, ya que podrían organizar la información de maneras completamente ajenas a los patrones lingüísticos humanos. Afortunadamente, los lingüistas han desarrollado herramientas sofisticadas que utilizan la teoría de la información para interpretar idiomas desconocidos. De la misma manera que los arqueólogos reconstruyen lenguas antiguas a partir de fragmentos, nosotros utilizamos patrones en las conversaciones de la IA para comprender su estructura lingüística. A veces encontramos similitudes sorprendentes con las lenguas humanas y otras veces descubrimos formas de comunicación completamente nuevas . Estas herramientas nos ayudan a echar un vistazo a la “ caja negra ” de la comunicación de IA y revelan cómo los agentes de IA desarrollan sus propias formas únicas de compartir información. Mi trabajo reciente se centra en utilizar lo que los agentes ven y dicen para interpretar su lenguaje. Imaginemos que tenemos una transcripción de una conversación en un idioma que no conocemos, junto con lo que cada hablante estaba mirando. Podemos hacer coincidir patrones en la transcripción con objetos en el campo de visión del participante, creando conexiones estadísticas entre palabras y objetos. Por ejemplo, tal vez la frase “yayo” coincida con un pájaro que pasa volando; podríamos suponer que “yayo” es la palabra que el hablante usa para “pájaro”. Mediante un análisis cuidadoso de estos patrones, podemos comenzar a decodificar el significado detrás de la comunicación. En el último artículo de mis colegas y mío, que aparecerá en las actas de la conferencia Neural Information Processing Systems (NeurIPS), demostramos que dichos métodos pueden usarse para realizar ingeniería inversa de al menos partes del lenguaje y la sintaxis de las IA, lo que nos da una idea de cómo podrían estructurar la comunicación. Extraterrestres y sistemas autónomos ¿Cómo se relaciona esto con los extraterrestres? Los métodos que estamos desarrollando para comprender los lenguajes de la IA podrían ayudarnos a descifrar cualquier comunicación futura con los extraterrestres. Si pudiéramos obtener algún texto escrito de un extraterrestre junto con algún contexto (como información visual relacionada con el texto), podríamos aplicar las mismas herramientas estadísticas para analizarlo. Los enfoques que estamos desarrollando hoy podrían ser herramientas útiles en el estudio futuro de las lenguas extraterrestres, conocido como xenolingüística. Pero no hace falta encontrar extraterrestres para sacar partido de esta investigación. Las aplicaciones son numerosas , desde mejorar modelos de lenguaje como ChatGPT o Claude hasta mejorar la comunicación entre vehículos autónomos o drones . Al decodificar los lenguajes emergentes, podemos hacer que la tecnología del futuro sea más fácil de entender. Ya sea que sepamos cómo coordinan sus movimientos los autos autónomos o cómo toman decisiones los sistemas de inteligencia artificial, no solo estamos creando sistemas inteligentes, sino que estamos aprendiendo a comprenderlos. Este artículo se publica nuevamente en The Conversation bajo una licencia Creative Commons. Lea el artículo original . Crédito

Leer más »

El VC Martin Casado explica por qué tantas regulaciones de IA son tan erróneas

El problema con la mayoría de los intentos de regular la IA hasta el momento es que los legisladores se están centrando en una mítica experiencia futura de IA, en lugar de comprender verdaderamente los nuevos riesgos que la IA realmente introduce. Así lo afirmó el socio general de Andreessen Horowitz, el VC Martin Casado, ante un público repleto en TechCrunch Disrupt 2024 la semana pasada. Casado, que dirige la práctica de infraestructura de 1.250 millones de dólares de a16z, ha invertido en empresas emergentes de inteligencia artificial como World Labs, Cursor, Ideogram y Braintrust. “Las tecnologías transformadoras y la regulación han sido un tema recurrente durante décadas, ¿no es cierto? Lo que ocurre con todo el discurso sobre la IA es que parece haber surgido de la nada”, dijo a la multitud. “Están tratando de crear regulaciones completamente nuevas sin sacar lecciones de esas lecciones”.  Por ejemplo, dijo: «¿Han visto realmente las definiciones de IA en estas políticas? Es decir, ni siquiera podemos definirla».  Casado se encontraba entre un mar de voces de Silicon Valley que se regocijaron cuando el gobernador de California, Gavin Newsom, vetó la ley de gobernanza de la IA que se había propuesto en el estado, la SB 1047. La ley pretendía poner un llamado interruptor de apagado en los modelos de IA de gran tamaño, es decir, algo que los apagara. Quienes se opusieron al proyecto de ley dijeron que estaba tan mal redactado que, en lugar de salvarnos de un futuro monstruo imaginario de la IA, simplemente habría confundido y obstaculizado la escena de desarrollo de la IA en California. “Con frecuencia escucho a fundadores que se resisten a mudarse aquí debido a lo que esto indica sobre la actitud de California hacia la IA: que preferimos una mala legislación basada en preocupaciones de ciencia ficción en lugar de riesgos tangibles”, publicó en X un par de semanas antes de que el proyecto de ley fuera vetado. Aunque esta ley estatal en particular ya no existe, el hecho de que existiera todavía preocupa a Casado. Le preocupa que se puedan materializar más proyectos de ley, redactados de la misma manera, si los políticos deciden complacer los temores de la población general a la IA, en lugar de regular lo que la tecnología realmente está haciendo.  Entiende la tecnología de IA mejor que la mayoría. Antes de unirse a la histórica firma de capital de riesgo, Casado fundó otras dos empresas, incluida una empresa de infraestructura de redes, Nicira, que vendió a VMware por 1.260 millones de dólares hace poco más de una década. Antes de eso, Casado fue experto en seguridad informática en el Laboratorio Nacional Lawrence Livermore . Dice que muchas de las regulaciones propuestas sobre IA no surgieron ni fueron apoyadas por muchos de los que entienden mejor la tecnología de IA, incluidos académicos y el sector comercial que desarrolla productos de IA. “Hay que tener una noción de riesgo marginal diferente. Por ejemplo, ¿en qué se diferencia la IA actual de alguien que usa Google? ¿En qué se diferencia la IA actual de alguien que simplemente usa Internet? Si tenemos un modelo que muestre en qué se diferencia, se tiene una noción de riesgo marginal y luego se pueden aplicar políticas que aborden ese riesgo marginal”, dijo. «Creo que es demasiado pronto para empezar a aferrarnos a un montón de regulaciones y entender realmente qué vamos a regular», sostiene. El contraargumento —y que varias personas del público mencionaron— fue que el mundo no veía realmente los tipos de daños que Internet o las redes sociales podían causar antes de que estos daños estuvieran sobre nosotros. Cuando se lanzaron Google y Facebook, nadie sabía que dominarían la publicidad en línea o que recopilarían tantos datos sobre las personas. Nadie entendía cosas como el acoso cibernético o las cámaras de eco cuando las redes sociales eran jóvenes. Los defensores de la regulación de la IA a menudo señalan estas circunstancias pasadas y dicen que esas tecnologías deberían haber sido reguladas desde el principio.  ¿La respuesta de Casado? “Hoy en día existe un sólido régimen regulatorio que se ha desarrollado a lo largo de 30 años”, y está bien equipado para construir nuevas políticas para la IA y otras tecnologías. Es cierto que, solo a nivel federal, los organismos reguladores incluyen todo, desde la Comisión Federal de Comunicaciones hasta el Comité de Ciencia, Espacio y Tecnología de la Cámara de Representantes. Cuando TechCrunch le preguntó a Casado el miércoles después de las elecciones si mantiene esta opinión (que la regulación de la IA debería seguir el camino ya trazado por los organismos reguladores existentes), dijo que sí. Pero también cree que no se debería atacar a la IA por los problemas que presentan otras tecnologías, sino que se debería atacar a las tecnologías que causaron los problemas. “Si nos equivocamos en las redes sociales, no podemos solucionarlo con la IA”, dijo. “Los que regulan la IA dicen: ‘Oh, nos equivocamos en las redes sociales, por lo tanto, lo haremos bien en la IA’, lo cual es una declaración sin sentido. Vamos a solucionarlo en las redes sociales”. TechCrunch. J. B. Traducido al español

Leer más »

Las primeras 24 horas en un hipotético corte global de internet

Francisco José García Ull, Universidad Europea En los últimos años, ha aumentado la preocupación por la actividad militar rusa en torno a los cables submarinos que forman la columna vertebral de internet, un entramado de 500 cables submarinos que se extienden a lo largo de cientos de miles de kilómetros, transmitiendo terabits de datos por segundo. Transportan el 97 % de las comunicaciones globales y son esenciales para transmitir datos gubernamentales, financieros y personales. La amenaza de un ataque coordinado podría generar interrupciones masivas en las comunicaciones globales, afectando tanto a civiles como a operaciones militares. Aunque esenciales, estos cables son sorprendentemente vulnerables. Cada año se reportan alrededor de 100 cortes, generalmente causados por accidentes con anclas o actividad pesquera. ¿Qué ocurriría si todo el internet global dependiente de estos cables se cortara repentinamente? Minuto 1: El desconcierto inicial Durante el primer minuto, la mayoría de las personas no nota la falta de internet. Las aplicaciones y servicios que no requieren conexión siguen funcionando. Solo quienes intentan enviar un mensaje o actualizar una página web se dan cuenta de que algo anda mal. Las operaciones básicas en empresas y hogares continúan, aunque algunos sistemas dependientes de la nube empiezan a mostrar fallos. Los servicios críticos que dependen de datos en tiempo real, como los centros de control de tráfico y hospitales, podrían ver un ligero retraso en sus sistemas internos. 5 minutos: La sospecha A los cinco minutos, el problema se hace más evidente. Las redes sociales no actualizan, los mensajes no se envían y quienes dependen de internet para trabajar comienzan a preocuparse. Los servicios de mensajería y las plataformas de videollamadas fallan, afectando la comunicación personal y profesional. Los sistemas críticos, como los hospitales y las fuerzas de seguridad, comienzan a activar sus planes de contingencia y a usar comunicaciones por radio y satélite para coordinarse. 30 minutos: Crece la preocupación Media hora después, el impacto es más palpable. Las líneas telefónicas se saturan mientras las personas intentan comunicarse con amigos y familiares. Las tarjetas de crédito y débito dejan de funcionar en tiendas y gasolineras, provocando largas filas y confusión. Los bancos se llenan de gente intentando retirar efectivo, anticipando problemas mayores. Los sistemas de control de tráfico y la logística de transporte pueden verse afectados, ralentizando la movilidad y la distribución de productos esenciales. 1 hora: Caos en los servicios críticos Después de una hora sin internet, el impacto en los servicios críticos se vuelve más evidente. Los sistemas hospitalarios sin acceso a historiales clínicos digitales deben recurrir a registros en papel, lo que ralentiza la atención y aumenta el riesgo de errores médicos. Las comunicaciones entre fuerzas de seguridad se limitan a sistemas de radio y teléfonos satelitales, que no pueden cubrir todas las necesidades de coordinación. En los bancos, la falta de acceso a redes digitales bloquea las transacciones y provoca un caos en las sucursales. 6 horas: Crisis económica y social La falta de internet durante seis horas paraliza la economía. Los mercados financieros no pueden operar, causando pánico entre los inversores. El comercio electrónico y las plataformas de pago en línea se detienen por completo. Las estaciones de servicio no pueden aceptar pagos electrónicos y dejan a muchos conductores sin combustible. Los sistemas de seguridad que dependen de internet, como cámaras de vigilancia y alarmas, dejan de funcionar y aumenta el riesgo de robos y vandalismo. 12 horas: Desesperación y vulnerabilidad A las doce horas, la situación es crítica. Las únicas fuentes de información son la radio y, en algunos casos, la televisión, pero incluso estos medios comienzan a fallar debido a la falta de infraestructura digital. Los servicios de emergencia se ven saturados y desbordados ante la imposibilidad de comunicarse eficientemente. Las fuerzas de seguridad intentan mantener el orden, pero la falta de coordinación y la creciente frustración de la población complican la situación. Las colas en los bancos se vuelven interminables y muchos se quedan sin efectivo, ya que los cajeros automáticos no funcionan. 24 horas: Caos total Después de 24 horas, el impacto en la sociedad es devastador. La vida moderna, dependiente de la tecnología digital, queda reducida a un caos total. Los hospitales, sin acceso a sistemas electrónicos, deben recurrir a procedimientos manuales. Los servicios de transporte y logística se paralizan, lo que afecta a la distribución de alimentos y medicinas. Las comunicaciones entre gobiernos y organismos internacionales se complican, dificultando la gestión de crisis. La falta de información precisa genera confusión y pánico en la población. Privilegiados con medios alternativos Aunque la mayoría de la población queda aislada, algunos privilegiados disponen de medios alternativos para mantenerse conectados. Corporaciones, gobiernos y servicios de emergencia recurren a comunicaciones satelitales y redes privadas, pero incluso estos sistemas tienen limitaciones y no pueden sustituir la conectividad global de los cables submarinos. Un papel crucial lo juegan los radioaficionados que, con más de 3 500 operativos en España, se convierten en un valioso recurso para coordinar ayuda y transmitir información en situaciones de emergencia (Unión de Radioaficionados Españoles). Demasiado frágiles En conclusión, la interrupción global de internet expondría la fragilidad de nuestra sociedad digital. La dependencia de la red para la mayoría de las actividades diarias, desde la economía hasta la seguridad, se haría evidente de manera alarmante. Sin internet, nuestra estructura social, económica y política quedaría desprotegida, lo que revela la necesidad de desarrollar infraestructuras de respaldo y estrategias de contingencia ante posibles escenarios de desconexión global. Este artículo refleja los resultados de un ejercicio visto en clase. Agradezco la ayuda e implicación de los estudiantes del Grado de Marketing de la Universidad Europea de Valencia. Francisco José García Ull, Profesor de análisis de datos, privacidad, ética e IA, Universidad Europea Este artículo fue publicado originalmente en The Conversation. Lea el original.

Leer más »

Parte 2.5: Aprendizaje por refuerzo de IA vs. gobernanza humana

Inspirado por el curso en línea de Aprendizaje de IA , quise escribir un artículo sobre la relación entre el aprendizaje de refuerzo de la IA y la gobernanza humana. Al analizar sus similitudes y diferencias, podemos comprender mejor los posibles impactos de la IA. Aprendizaje por refuerzo en el juego del escondite El aprendizaje por refuerzo (RL) es un subconjunto del aprendizaje automático en el que los agentes aprenden a optimizar su comportamiento mediante ensayo y error . Una aplicación fascinante del RL se observa en el juego del escondite, en el que los agentes aprenden estrategias complejas para esconderse o buscar de manera eficaz. Este juego, que suele utilizarse como punto de referencia en la investigación de la IA, demuestra cómo los agentes desarrollan estrategias complejas y se adaptan a entornos dinámicos, reflejando ciertos aspectos del aprendizaje humano y los procesos de toma de decisiones . En un estudio realizado por OpenAI , se colocó a los agentes en un entorno virtual con objetos móviles y se les pidió que jugaran al escondite. Los agentes utilizaron el aprendizaje automático para desarrollar estrategias a lo largo de millones de iteraciones . Los que se escondieron aprendieron a bloquear las entradas con objetos para crear zonas seguras, mientras que los que buscaron aprendieron a usar rampas para superar obstáculos. Este comportamiento emergente demuestra el poder del aprendizaje automático para descubrir estrategias complejas a partir de reglas simples . Gobernanza humana y regulación del comportamiento La gobernanza humana implica el establecimiento de reglas, normas e instituciones para regular el comportamiento dentro de las sociedades. A diferencia del aprendizaje directo, que se basa en algoritmos computacionales para optimizar el comportamiento, la gobernanza humana es una interacción compleja de consideraciones culturales, legales y éticas . Diferentes sociedades pueden adoptar distintos modelos de gobernanza, desde sistemas democráticos que enfatizan la participación ciudadana hasta estructuras más centralizadas, cada una con su propia dinámica de poder y valores culturales .  Las estructuras de gobernanza están diseñadas para mantener el orden, proteger los derechos y promover el bienestar, y a menudo requieren el consenso y el cumplimiento de la población gobernada. Los sistemas de gobernanza suelen evaluarse en función de su eficacia para lograr objetivos sociales, como la justicia, la seguridad y la prosperidad económica. Estos sistemas se basan en una combinación de incentivos y disuasiones, similar al sistema de recompensas y sanciones de la vida real, para influir en el comportamiento. Sin embargo, la gobernanza humana también implica negociación, persuasión y equilibrio de intereses en pugna, lo que añade capas de complejidad que no están presentes en los entornos de la vida real . Comparación entre aprendizaje y adaptación Tanto el aprendizaje presencial en el juego de las escondidas como la gobernanza humana implican aprendizaje y adaptación, pero difieren significativamente en sus mecanismos y resultados. En el juego presencial, el aprendizaje está impulsado por una función de recompensa clara y cuantificable, y la adaptación se produce mediante ensayo y error a lo largo de numerosas iteraciones. Los agentes del juego de las escondidas se adaptan explorando diferentes estrategias y conservando aquellas que maximizan su retroalimentación de refuerzo . En cambio, la gobernanza humana implica el aprendizaje a través de la experiencia histórica, la evolución cultural y el desarrollo institucional. La adaptación en la gobernanza humana suele ser más lenta y deliberada , ya que requiere cambios en las leyes, las políticas y las normas sociales. Los mecanismos de retroalimentación en la gobernanza son menos directos y cuantificables que en la vida real, y suelen implicar dinámicas sociales y procesos políticos complejos. Estos circuitos de retroalimentación pueden abarcar desde los resultados electorales y las encuestas de opinión pública hasta los movimientos sociales y las protestas, la configuración de las políticas y la garantía de la capacidad de respuesta a las necesidades de la población. Estrategias emergentes y consecuencias no deseadas Uno de los aspectos fascinantes del aprendizaje por pares en el juego del escondite es la aparición de estrategias que no estaban programadas explícitamente . Este comportamiento emergente es el resultado de las interacciones de los agentes con su entorno y entre ellos , lo que conduce a soluciones innovadoras para los desafíos que enfrentan. Por ejemplo, el uso de objetos por parte de los jugadores que se escondían para bloquear las entradas fue una estrategia emergente que evolucionó a partir de las reglas básicas del juego. De manera similar, la gobernanza humana puede generar conductas emergentes y consecuencias no deseadas . Las políticas diseñadas para alcanzar objetivos específicos pueden tener efectos dominó en toda la sociedad y generar resultados que no se habían previsto. Por ejemplo, aumentar la edad de jubilación, si bien tiene como objetivo abordar las preocupaciones económicas relacionadas con el envejecimiento de la población, puede alterar las estructuras familiares tradicionales y los mecanismos de cuidado. Este cambio podría generar tensiones en las familias y aumentar aún más las desigualdades existentes, especialmente si el sistema carece de opciones adecuadas y asequibles de cuidado infantil o servicios de apoyo para personas mayores dependientes. La complejidad de las sociedades humanas significa que la gobernanza debe ser adaptable y responder a estos desafíos emergentes. La innovación y el espectro de las alucinaciones La línea entre el pensamiento visionario y las alucinaciones puede ser difusa tanto para los humanos como para los sistemas de IA. Para los humanos, este espectro va desde los momentos de inspiración visionaria hasta las percepciones distorsionadas y delirantes de la realidad , así como las exploraciones creativas de la fantasía. La «previsión» también está en el espectro, ya que une el pensamiento visionario y el potencial de alucinaciones. Es un método utilizado para explorar escenarios futuros y actualmente es una habilidad muy solicitada. La previsión es una de las cinco habilidades esenciales mencionadas en el Quinteto del Cambio de la ONU 2.0, en particular porque las innovaciones necesarias requieren explorar nuevas ideas e ir más allá de lo convencional.  Los agentes de IA funcionan de manera diferente a los humanos, en particular porque no tienen límites naturales inherentes, como el sentido común, los límites cognitivos, las consideraciones éticas o las restricciones físicas y biológicas . Esta falta de límites humanos permite que el sistema ofrezca perspectivas y resultados inesperados, tan novedosos que

Leer más »

Protege tu smartphone de ataques virtuales y maliciosos con efectivas herramientas

Hacer copias de seguridad con regularidad, descargar apps sólo en tiendas oficiales y activar herramientas de seguridad con actualizaciones periódicas, son parte de las tácticas que blindan tu teléfono inteligente Tu teléfono inteligente contiene valiosa información personal vinculada a tus cuentas bancarias, archivo de fotos y videos, números telefónicos de familiares, amigos y otros, documentos de trabajo o estudio y hasta datos confidenciales.  Parte de esta data te resulta indispensable para tu vida diaria y otra puede tener un valor imposible de calcular.   Si por un momento imaginas que alguien acceda a estos de forma inconsulta, violando tu privacidad, y los destruya o use en tu contra, no dudarías en aplicar sencillas acciones que ayudan a minimizar las posibilidades de que seas un caso que se agrega a las estadísticas de víctimas de ciberataques. Conoce a continuación cinco acciones que te ayudarán a crear un escudo protector para tu smartphone y disfrutar de la tranquilidad de sentirte a resguardo. 1.- Usa el passkey en tu Galaxy: Con el constante crecimiento de nuestros ecosistemas de dispositivos, todos hemos experimentado la molesta tarea de iniciar sesión en aplicaciones y sitios web con contraseñas que a menudo son largas, complicadas y fáciles de olvidar. Pero ¿qué pasaría si dejaran de existir y aun así fuera posible compartir información de forma segura entre múltiples dispositivos? Esta es la visión de Samsung para las passkeys: credenciales digitales que se pueden utilizar para la autenticación en sitios web y aplicaciones, habilitadas por Knox Matrix en los teléfonos inteligentes y tabletas Galaxy. Con el aumento del uso de aplicaciones y servicios web, aumenta el riesgo de fugas de contraseñas. Passkey alivia esta preocupación y elimina el inconveniente de tener que recordar las contraseñas para cada inicio de sesión. 2. Haz copias de seguridad periódicas:  Si posees un teléfono Android, como un Samsung Galaxy, lo puede realizar de manera sencilla al entrar a Configuración de tu dispositivo y seguir los pasos.  Esta táctica resguarda tus datos ante eventuales pérdidas o ataques. Es importante aclarar que este respaldo solo se realiza a la app de mensajes, teléfono, contactos, calendario, reloj y ajustes, debido a que el respaldo es en Samsung Cloud, que tiene un limite del tamaño de archivos que puede guardar que es de hasta 1GB. 3.- Descarga apps sólo desde fuentes confiables:  Esto lo consigues al utilizar siempre tiendas oficiales.  Si tienes un smartphone Galaxy, el recurso Auto Blocker protegerá tus datos personales al evitar la instalación de apps de fuentes no autorizadas, buscará malware y otras amenazas de ciberseguridad, bloqueando inmediatamente cualquier actividad maliciosa que pueda surgir. Auto Blocker también evita que comandos dañinos ingresen a tu puerto USB físico, muy útil si cargas tu teléfono a través de una toma de corriente en un espacio público. Recuerda que en la configuración de tu equipo puedes permitir o rechazar que las apps que utilizas accedan a tus datos. 4.- Utiliza herramientas de seguridad con actualizaciones periódicas:  te conviene instalar antivirus y apps antirrobo, entre otras herramientas.   Es recomendable optar por un dispositivo cuyo fabricante ofrezca funciones de seguridad sólidas, y con garantía de actualizaciones periódicas. Samsung Knox, plataforma de seguridad que funciona en tiempo real, 24 horas, en los dispositivos de la marca, blinda en hardware y software: chips internos y sistema operativo, entre otros componentes.  Samsung ofrece varios años de actualizaciones de seguridad según el modelo del teléfono (por ejemplo, hasta siete años de actualizaciones en la serie Galaxy S24 y seis años en el A16 5G). 5.- Navega con más confianza:  Evita los rastreos de tus datos.  Si configuras Smart Anti-Tracking en tu dispositivo Galaxy, cuando navegues para leer noticias, indagar sobre un dato en particular o buscar un sitio en el mapa, evitarás que los sitios webs y anunciantes te ubiquen y usen tus datos sin tu permiso. Recuerda que la seguridad comienza con el uso preventivo de tu dispositivo electrónico móvil, frente a potenciales enemigos.  Burla las malas intenciones de los ciberdelincuentes. Samsung News. Traducido al español

Leer más »

¿Qué es la superinteligencia de la IA? ¿Podría destruir a la humanidad? ¿Está realmente a punto de llegar?

En 2014, el filósofo británico Nick Bostrom publicó un libro sobre el futuro de la inteligencia artificial con el ominoso título Superinteligencia: caminos, peligros, estrategias . El libro tuvo una gran influencia en la promoción de la idea de que los sistemas avanzados de IA –“superinteligencias” más capaces que los humanos– podrían algún día apoderarse del mundo y destruir a la humanidad. Una década después, el jefe de OpenAI, Sam Altman, afirma que la superinteligencia puede estar a sólo “ unos pocos miles de días ” de distancia. Hace un año, el cofundador de OpenAI de Altman, Ilya Sutskever, creó un equipo dentro de la empresa para centrarse en la “ superinteligencia segura ”, pero él y su equipo han recaudado ahora mil millones de dólares para crear una empresa propia que persiga este objetivo. ¿De qué están hablando exactamente? En términos generales, la superinteligencia es cualquier cosa más inteligente que los humanos . Pero desentrañar lo que eso podría significar en la práctica puede resultar un poco complicado. Diferentes tipos de IA En mi opinión, la forma más útil de pensar en los diferentes niveles y tipos de inteligencia en la IA fue desarrollada por la científica informática estadounidense Meredith Ringel Morris y sus colegas de Google. Su marco de trabajo enumera seis niveles de desempeño de la IA: sin IA, emergente, competente, experta, virtuosa y sobrehumana. También hace una distinción importante entre sistemas limitados, que pueden llevar a cabo una gama pequeña de tareas, y sistemas más generales. Un sistema estrecho, sin IA, es algo así como una calculadora: lleva a cabo diversas tareas matemáticas según un conjunto de reglas programadas explícitamente. Ya existen muchos sistemas de IA de bajo nivel que han tenido mucho éxito. Morris cita como ejemplo de un sistema de IA de bajo nivel de virtuosismo el programa de ajedrez Deep Blue que derrotó al campeón mundial Garry Kasparov en 1997. Algunos sistemas estrechos incluso tienen capacidades sobrehumanas. Un ejemplo es Alphafold , que utiliza el aprendizaje automático para predecir la estructura de las moléculas de proteínas y cuyos creadores ganaron el Premio Nobel de Química este año. ¿Qué sucede con los sistemas generales? Se trata de software que puede abordar una gama mucho más amplia de tareas, incluidas cosas como el aprendizaje de nuevas habilidades. Un sistema general sin IA podría ser algo así como el Mechanical Turk de Amazon : puede hacer una amplia variedad de cosas, pero las hace preguntándole a personas reales. En general, los sistemas de IA general son mucho menos avanzados que sus primos más pequeños. Según Morris, los modelos de lenguaje de última generación detrás de los chatbots como ChatGPT son IA general, pero hasta ahora están en el nivel “emergente” (lo que significa que son “iguales o algo mejores que un humano no capacitado”), y aún no han alcanzado el nivel “competente” (tan bueno como el 50% de los adultos capacitados). Así que, según este cálculo, todavía estamos a cierta distancia de la superinteligencia general. ¿Qué tan inteligente es la IA en estos momentos? Como señala Morris, determinar con precisión dónde se encuentra un sistema determinado dependería de disponer de pruebas o puntos de referencia fiables. Dependiendo de nuestros parámetros de referencia, un sistema de generación de imágenes como DALL-E podría estar en un nivel virtuoso (porque puede producir imágenes que el 99% de los humanos no podrían dibujar o pintar), o podría estar emergiendo (porque produce errores que ningún humano produciría, como manos mutantes y objetos imposibles). Existe un debate importante incluso sobre las capacidades de los sistemas actuales. Un destacado artículo de 2023 afirmaba que el GPT-4 mostraba “destellos de inteligencia artificial general”. OpenAI afirma que su último modelo de lenguaje, o1 , puede “realizar razonamientos complejos” y “rivaliza con el desempeño de los expertos humanos” en muchos puntos de referencia. Sin embargo, un artículo reciente de investigadores de Apple descubrió que o1 y muchos otros modelos de lenguaje tienen problemas significativos para resolver problemas genuinos de razonamiento matemático. Sus experimentos muestran que los resultados de estos modelos parecen asemejarse a una búsqueda sofisticada de patrones en lugar de a un verdadero razonamiento avanzado. Esto indica que la superinteligencia no es tan inminente como muchos han sugerido. ¿La IA seguirá volviéndose más inteligente? Algunas personas creen que el rápido ritmo de progreso de la IA de los últimos años continuará o incluso se acelerará. Las empresas tecnológicas están invirtiendo cientos de miles de millones de dólares en hardware y capacidades de IA, por lo que esto no parece imposible. Si esto sucede, es posible que veamos una superinteligencia general dentro de los “pocos miles de días” propuestos por Sam Altman (eso es una década o más en términos menos científicos). Sutskever y su equipo mencionaron un período de tiempo similar en su artículo sobre la superalineación . Muchos de los éxitos recientes en el campo de la IA se han logrado gracias a la aplicación de una técnica llamada “aprendizaje profundo”, que, en términos simples, encuentra patrones asociativos en colecciones gigantescas de datos. De hecho, el Premio Nobel de Física de este año ha sido otorgado a John Hopfield y también al “ padrino de la IA ”, Geoffrey Hinton, por su invención de las redes de Hopfield y la máquina de Boltzmann, que son la base de muchos modelos de aprendizaje profundo potentes que se utilizan en la actualidad. Los sistemas generales como ChatGPT se han basado en datos generados por humanos, muchos de ellos en forma de textos extraídos de libros y sitios web. Las mejoras en sus capacidades se han debido en gran medida a un aumento de la escala de los sistemas y de la cantidad de datos con los que se entrenan. Sin embargo, es posible que no haya suficientes datos generados por humanos para llevar este proceso mucho más allá (aunque los esfuerzos por utilizar los datos de manera más eficiente, generar datos sintéticos y mejorar la transferencia de habilidades entre diferentes dominios pueden generar mejoras). Incluso si hubiera suficientes datos, algunos investigadores dicen que los modelos de lenguaje como ChatGPT son fundamentalmente incapaces de alcanzar lo que Morris llamaría competencia general. Un artículo reciente ha sugerido que una característica esencial de la superinteligencia sería su carácter abierto ,

Leer más »

Una nueva encuesta de Cisco muestra una fuerte relación entre la conciencia de la privacidad y la confianza en la IA

La privacidad y la protección de datos han pasado de ser un tema relativamente desconocido a convertirse en una exigencia de los clientes. SAN JOSÉ, California, 30 de octubre de 2024 — Hoy, Cisco (NASDAQ: CSCO) publicó su Encuesta de privacidad del consumidor 2024 , una revisión global anual de la percepción y el comportamiento de los consumidores con respecto a la privacidad de los datos. La encuesta de este año destaca el papel fundamental de la concienciación sobre los derechos de privacidad para fomentar la confianza de los consumidores en tecnologías emergentes como la inteligencia artificial (IA).   El conocimiento de las leyes de privacidad mejora la confianza del consumidor en la IA  La concienciación de los consumidores va en aumento. Este año, el 53 % declara conocer las leyes nacionales de privacidad, lo que supone un aumento de 17 puntos porcentuales en comparación con 2019. Los consumidores informados también tienen muchas más probabilidades de sentir que sus datos están protegidos (81 %) en comparación con los que no las conocen (44 %).   “Nuestra encuesta destaca la importancia de la concienciación sobre la privacidad para generar confianza en las marcas y las tecnologías de IA por parte de los consumidores”, afirma Harvey Jang, vicepresidente y director de privacidad de Cisco. “Casi el 60 % de los consumidores que conocen las leyes de privacidad se sienten cómodos utilizando la IA. Ampliar la concienciación y educar a los consumidores sobre sus derechos de privacidad les permitirá tomar decisiones informadas y fomentar una mayor confianza en las tecnologías emergentes”.  Las oportunidades y desafíos de la IA generativa   La encuesta revela que el 63% cree que la IA puede ser útil para mejorar sus vidas. El uso de la IA generativa (GenAI) casi se ha duplicado, y el 23% de los encuestados la utiliza con regularidad, frente al 12% del año pasado. Sin embargo, el 44% de los consumidores encuestados sigue sin conocer la GenAI. Si bien los usuarios dicen que están obteniendo un valor significativo de la GenAI al respaldar el trabajo de creación de contenido, les preocupa la seguridad, el posible uso indebido y los riesgos sociales.  «La creciente influencia de la IA en nuestra vida diaria pone de relieve la necesidad de utilizarla de manera responsable y segura», afirma Dev Stahlkopf, director jurídico y vicepresidente ejecutivo de Cisco. «El 78 % de los consumidores encuestados considera que es responsabilidad de las empresas emplear la IA de forma ética, lo que subraya la relación vital entre la IA responsable y la confianza de los consumidores».   Centrándose en la privacidad, el 30% de los usuarios de GenAI afirman que introducen información personal o confidencial, incluidos datos financieros y de salud, en las herramientas de GenAI. Esto es así a pesar de que al 84% le preocupa que esos datos se hagan públicos.    Los adultos jóvenes toman medidas para proteger la privacidad, los adultos mayores se quedan atrás  La privacidad y la protección de datos han pasado de ser un tema relativamente desconocido a convertirse en una exigencia de los clientes: más del 75 % de los consumidores afirman que no comprarán a una organización a la que no confíen sus datos. Esto se traduce en acciones concretas, ya que cada vez más consumidores se vuelven «activos en materia de privacidad», en particular los más jóvenes. Para proteger su privacidad, el 49 % de los consumidores de entre 25 y 34 años han cambiado de empresa o proveedor debido a sus políticas de datos o prácticas de intercambio de datos, en comparación con solo el 18 % de los mayores de 75 años.   La encuesta reveló que los consumidores de entre 25 y 34 años también son los más conscientes de sus derechos de privacidad (64 % frente al 33 % de los mayores de 65 años). También muestra un aumento significativo (36 % frente al 28 % del año pasado) en la forma en que los consumidores ejercen su derecho a acceder, corregir, eliminar o transferir sus datos personales a través de solicitudes de acceso de los interesados ​​(DSAR). Una vez más, los consumidores más jóvenes lideran el camino, ya que el 46 % de ellos realiza estas acciones, en comparación con solo el 16 % de los mayores de 65 años.    Además, los consumidores están aprovechando las herramientas de seguridad para proteger sus datos. En los 12 meses anteriores a la encuesta, el 67 % revisó o actualizó sus configuraciones de privacidad en aplicaciones o plataformas. El 68 % afirma que utiliza autenticación multifactor y el 61 % utiliza un administrador de contraseñas para proteger y realizar un seguimiento de sus contraseñas.  “Los datos son un activo que todos debemos proteger activamente”, afirma Anthony Grieco, vicepresidente sénior y director de seguridad y confianza de Cisco. “Desde el uso de la autenticación multifactor hasta la garantía de que los usuarios sepan con claridad y facilidad quién puede acceder a la información cuando se comparte, nos sentimos alentados por los encuestados que toman medidas para proteger su información personal”.    Los consumidores apoyan fuertes protecciones de la privacidad y favorecen reglas más consistentes   Una mayoría significativa (70%) de todos los consumidores encuestados cree que las leyes de privacidad tienen un impacto positivo, mientras que solo el 5% percibe un impacto negativo. Cada vez están más a favor de la protección de la privacidad: el 77% de los encuestados apoya normas similares en todos los países y regiones para garantizar una protección básica de la privacidad. En los EE. UU., el 81% de los encuestados está a favor de una ley federal de privacidad.   * La Encuesta sobre privacidad del consumidor de Cisco 2024 es una revisión global anual de las percepciones y comportamientos de los consumidores sobre la privacidad de los datos. La sexta edición de esta investigación encuestó de forma anónima a 2600 consumidores en Australia, Brasil, China, Francia, Alemania, India, Italia, Japón, México, España, Reino Unido y Estados Unidos. Cisco News

Leer más »

La Casa Blanca emite una nueva directiva sobre inteligencia artificial y seguridad nacional

Hoy, la Administración Biden-Harris publicó el primer  Memorando de Seguridad Nacional (NSM) sobre inteligencia artificial y el  Marco para Promover la Gobernanza de la IA y la Gestión de Riesgos en la Seguridad Nacional (Marco de IA) que lo acompaña, que establecen pautas para promover el uso seguro y democrático de la IA en la seguridad nacional de los Estados Unidos. “Este es un paso importante”, dijo la profesora Deirdre Mulligan, quien pasó los últimos dos años trabajando en la agenda de IA de la Administración en la Oficina de Ciencia, Tecnología y Política de la Casa Blanca, “junto con la  guía federal sobre el avance de la gobernanza, la innovación y la gestión de riesgos para el uso de inteligencia artificial por parte de las agencias publicada en marzo de 2023, establece a los Estados Unidos como líder en el uso responsable de la IA para el sector público, alineando la IA con las normas y valores democráticos, incluida la transparencia, la protección de los derechos humanos, los derechos civiles, las libertades civiles, la privacidad y la seguridad”.  Al igual que la Orden Ejecutiva del Presidente Biden  sobre el Desarrollo y Uso Seguro, Protegido y Confiable de la Inteligencia Artificial , firmada en octubre de 2023, la NSM es de amplio alcance, dijo Mulligan, y dirige las acciones de las agencias de todo el gobierno para (1) garantizar que Estados Unidos lidere el desarrollo mundial de una IA segura, protegida y confiable; (2) aprovechar las poderosas tecnologías de IA para avanzar en la misión de seguridad nacional; y (3) promover marcos internacionales de gobernanza de la IA que centren la seguridad, la protección y el respeto por los derechos humanos y los valores democráticos.  Mulligan afirmó que el NSM “redobla la apuesta” por la importancia de los valores democráticos a la hora de orientar el uso de la IA por parte de los gobiernos en todos los contextos. El memorando afirma: “El éxito de Estados Unidos en la era de la IA se medirá no solo por la preeminencia de la tecnología y la innovación estadounidenses, sino también por el liderazgo de Estados Unidos en el desarrollo de normas globales eficaces y la participación en instituciones arraigadas en el derecho internacional, los derechos humanos, los derechos civiles y los valores democráticos”. El marco de IA que acompaña a la iniciativa establece estructuras de gobernanza y procesos para el uso de la IA en los sistemas de seguridad nacional. Estos incluyen métodos rigurosos para evaluar la IA, la incorporación de funcionarios de libertades civiles y privacidad y otros funcionarios de agencias con experiencia en derechos humanos en las evaluaciones de IA, y una lista de prohibiciones sobre el uso de la IA para ciertos fines. “Los esfuerzos de la administración Biden-Harris intentan garantizar que la IA se diseñe, se utilice y se rechace de acuerdo con los valores democráticos”, dijo Mulligan.  Esto se refleja además, dijo, en las directivas del NSM al Departamento de Estado, que se centra en la política exterior de Estados Unidos, para desarrollar una estrategia para el avance de las normas internacionales de gobernanza de la IA en consonancia con una IA segura, protegida y confiable.  “Esto permitirá que Estados Unidos siga liderando la IA a nivel mundial”, afirmó Mulligan, “basándose en  la resolución de la Asamblea General de las Naciones Unidas liderada por Estados Unidos sobre una IA confiable para el desarrollo sostenible y otros esfuerzos internacionales”. UC Berkeley School of Information. D. M. Traducido al español

Leer más »

Los responsables de TI europeos creen que la IA es necesaria para aplicar políticas de seguridad

Muchos reconocen también que la adopción de esta tecnología puede desencadenar nuevos riesgos. La mayoría de los responsables de TI europeos creen que la inteligencia artificial (IA) es necesaria para gestionar y aplicar políticas de seguridad y gobernanza. Así lo declaran tres cuartas partes de los encuestados por AMD. Y el 88,6 % de ellos posiciona la seguridad como su prioridad empresarial actual. A pesar de que un 68 % reconoce que la adopción de la IA también podría introducir riesgos, 6 de cada 10 siguen pensando en la IA como solución para abordar desafíos de seguridad y privacidad de los datos. Además, el 75 % confía en que esta tecnología les ayude a abordar problemas operativos. En este contexto Matthew Unangst, director sénior de clientes comerciales y estaciones de trabajo de AMD, piensa que “las organizaciones deben confiar en un enfoque multicapa que requiere funciones de seguridad implementadas en la capa de silicio, la capa de SO y la capa de plataforma”. Así podrán “luchar eficazmente contra las ciberamenazas”, dice. “Las capacidades adicionales de seguridad basadas en IA reforzarán aún más este enfoque de seguridad por capas en futuros productos y soluciones”.

Leer más »
Scroll al inicio