Identificarán en Facebook, Instagram y Threads las imágenes generadas por IA

El gigante estadounidense Meta, responsable de Facebook, Instagram y Threads, anunció este martes que en los próximos meses comenzará a identificar cualquier imagen generada por inteligencia artificial (IA) que aparezca en esas redes sociales.

«En los próximos meses etiquetaremos las imágenes que los usuarios publiquen en Facebook, Instagram y Threads, siempre y cuando podamos detectar los indicadores, conformes a las normas de la industria, que revelan que son generadas por IA», anunció Nick Clegg, el responsable de asuntos internacionales de Meta, en un blog.

La compañía ya identifica las imágenes generadas con la ayuda de su propia herramienta, Meta IA, que fue lanzada en diciembre. El representante de Meta indicó que la compañía quiere «hacer lo mismo con contenidos creados con herramientas de otras empresas» como Google, OpenAI, Microsoft, Adobe, Midjourney o Shutterstock.

«Estamos construyendo esta herramienta en estos momentos, y en los próximos meses comenzaremos a aplicar etiquetas en todos los idiomas compatibles con cada aplicación», subrayó.

Los riesgos de la IA

El auge de la IA generativa suscita temores de que las personas utilicen estas herramientas para sembrar el caos político, especialmente a través de la desinformación, en un año en el que casi la mitad de la población mundial celebrará elecciones.

Además del riesgo político, el desarrollo de programas de IA generativa podría producir un flujo incontrolable de contenidos degradantes, según numerosos activistas y reguladores, como las imágenes falsas (deepfakes) pornográficas de mujeres famosas, un fenómeno que también afecta a personas anónimas.

Por ejemplo, una imagen falsa de la estrella estadounidense Taylor Swift fue vista 47 millones de veces en la red social X a finales de enero antes de ser eliminada. Según la prensa estadounidense, la publicación permaneció en línea en la plataforma durante aproximadamente 17 horas.

Si bien Nick Clegg admite que este etiquetado a gran escala, a través de marcadores invisibles, «no eliminará» totalmente el riesgo de producción de imágenes falsas, «ciertamente minimizará» su proliferación «dentro de los límites de lo que la tecnología permite actualmente».

«No es perfecto, la tecnología aún no está completamente desarrollada, pero de todas las plataformas es el intento más avanzado hasta ahora para proporcionar transparencia de forma significativa a miles de millones de personas en todo el mundo», dijo Clegg a AFP.

«Espero sinceramente que al hacer esto y liderar el camino, alentemos al resto de la industria a trabajar juntos y tratar de desarrollar los estándares técnicos comunes que necesitamos», agregó el líder de Meta, que está dispuesto a «compartir» su tecnología abierta «tan ampliamente como sea posible».

La empresa californiana OpenAI, creadora de ChatGPT, también anunció a mediados de enero el lanzamiento de herramientas para combatir la desinformación, y afirmó su voluntad de no permitir el uso de sus herramientas tecnológicas con fines políticos.

«Queremos asegurarnos de que nuestra tecnología no se utilice de manera que perjudique» al proceso democrático, explicó OpenAI, que señaló que su generador de imágenes DALL-E 3 contiene «salvaguardas» para evitar que los usuarios generen imágenes de personas reales, especialmente candidatos.

Dejá tu comentario. [Nos reservamos el derecho de eliminar los contenidos ofensivos o discriminatorios.]

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

x

Check Also

Proponen clasificar a la mariposa monarca como especie amenazada

El Servicio de Pesca y Vida Silvestre de Estados Unidos (USFWS) planteó la necesidad de incluir a la mariposa monarca, un ...