Google añade requisitos de divulgación de inteligencia artificial para anuncios políticos

Google agrega requisitos de divulgación para contenido generado por IA o alterado digitalmente en anuncios políticos a medida que se acercan las elecciones

Google ha agregado un requisito de divulgación adicional para los anunciantes electorales que utilizan contenido alterado digitalmente o generado por inteligencia artificial, en su último esfuerzo por evitar la desinformación antes de las elecciones clave de este año.

La compañía ahora requerirá que los anunciantes seleccionen una casilla de verificación en la sección “contenido alterado o sintético” de la configuración de su campaña si usan contenido alterado o sintético para representar personas o eventos reales o de apariencia realista, informó Reuters.

Google dijo que generará una divulgación dentro de los anuncios para feeds y cortos en teléfonos móviles y en transmisiones en computadoras y televisores.

Para otros formatos, los usuarios deberán proporcionar una divulgación destacada, con un lenguaje aceptable que variará según el contexto del anuncio.

Inteligencia artificial IA

Divulgaciones publicitarias

En septiembre, Google dijo que exigiría información sobre contenido sintético y alterado digitalmente en anuncios electorales, y requeriría que los creadores de YouTube revelen cuándo han usado contenido sintético o alterado realista, mostrando una etiqueta que lo indique a los usuarios.

En marzo, la compañía dijo que su chatbot de inteligencia artificial Gemini no podría responder consultas relacionadas con las elecciones para evitar acusaciones de difundir información errónea.

Meta Platforms, la empresa matriz de Facebook e Instagram, dijo el año pasado que los anunciantes tendrían que revelar si se utilizaron herramientas de inteligencia artificial u otras herramientas digitales para alterar o crear anuncios políticos, sociales o relacionados con elecciones en las dos plataformas de redes sociales.

La compañía dijo en mayo que había encontrado una red de propaganda en Facebook e Instagram diseñada para influir en la opinión pública a favor de Israel sobre la guerra en Gaza y que utiliza material que parecía generado mediante inteligencia artificial como parte de sus operaciones.

Etiquetas de IA

En febrero, Meta dijo que comenzaría a detectar y etiquetar imágenes generadas por IA realizadas por los sistemas de IA de otras empresas en Facebook, Instagram y Threads como trabajos para contrarrestar a “personas y organizaciones que activamente quieren engañar a la gente”.

Meta ya ha etiquetado las imágenes creadas por sus propios servicios de inteligencia artificial, que incluyen marcas de agua invisibles y metadatos que pueden alertar a otras empresas de que la imagen fue generada artificialmente.

Las políticas surgen en medio de una creciente preocupación por el potencial mal uso de los sistemas de inteligencia artificial generativa que pueden crear contenido visual falso que parece auténtico.

El contenido generado por inteligencia artificial se distribuyó ampliamente durante las recientes elecciones en India, incluido contenido sintético que creaba imágenes falsas de celebridades de Bollywood.NetMedia, Inglaterra.MB. Traducido al español

Comparte la nota:

Artículos relacionados

Scroll al inicio