Aplicaciones IA
Cómo detectar contenido generado por inteligencia artificial

Los recientes lanzamientos de soluciones de inteligencia artificial (IA) generativa, inundan de titulares y de predicciones los medios. Y también de contenidos generados por ellas. Pero, ¿es posible detectar que un contenido ha sido generado por una IA?
¿Y para qué querríamos saber si un contenido ha sido generado por una inteligencia artificial? Por un lado, puede afectar a la credibilidad y fiabilidad de la información presentada. Imaginemos un texto generado por una inteligencia artificial: los contenidos generados automáticamente pueden contener imprecisiones, sesgos y falsedades, por el propio proceso de creación de los modelos de lenguaje. Además, y por ahora, esos modelos no beben de información actualizada, sino de información previamente procesada, así que no están al día.
Por otro lado, nos permitiría tomar decisiones con conocimiento de causa: si quieres la opinión de otra persona sobre un tema o sobre un artículo o servicio que deseas adquirir, es probable que no te interese la respuesta de una IA entrenada con parámetros que pueden no coincidir con tus criterios de selección.
En un post anterior apuntábamos algunas aplicaciones interesantes y el potencial de la inteligencia artificial generativa. También apuntábamos algunas limitaciones. Hoy, nos centramos en estas y en por qué es bueno saber si un contenido ha sido generado por una inteligencia artificial y cómo podemos detectarlo.
Generación de contenido mediante inteligencia artificial: limitaciones y amenazas
Veamos, a grandes líneas, cómo genera texto una IA, para comprender las limitaciones. Tomemos el caso de ChatGPT, que es el generador de texto más conocido:
ChatGPT es un tipo de modelo lingüístico conocido como transformador. Se entrena con un gran conjunto de datos de texto -libros, artículos y páginas web-, y utiliza estos datos para aprender patrones y relaciones entre palabras y frases. Cuando se le pide que genere algo, ChatGPT genera texto prediciendo la siguiente palabra de una frase basándose en el contexto de la entrada que se le ha dado.
La generación de texto de ChatGPT puede ser falsa porque el modelo se basa en los datos con los que se ha entrenado, que pueden no ser precisos o ser imparciales. Por otro lado, ChatGPT no puede comprobar o verificar la información que genera, por lo que puede producir información inexacta o falsa. Además, también puede generar texto sesgado porque ha aprendido patrones y sesgos de los datos con los que fue entrenado. Adicionalmente, puede no ser capaz de entender los matices o el contexto de ciertos temas y producir textos que no tengan mucho que ver con lo que quieres. Y, por último, los modelos pueden ser entrenados para crear desinformación y deepfakes, como apuntaba Clara Jiménez en este webinar.
Multiplicando todas estas limitaciones, está el hecho de que los contenidos generados por IA son cada vez más frecuentes: los expertos estiman que hasta el 90 por ciento de los contenidos en línea podrían ser generados sintéticamente en 2026, según recoge el informe Facing reality? Law enforcement and the challenge of deepfakes, presentado por Europol.
Por otro lado, también las imágenes generadas por una IA, con soluciones como DALL-E 2, Stable Diffusion, Midjourney o eDiff-I, pueden ser tan engañosas como el texto generado por una IA, ya que pueden utilizarse para crear imágenes convincentes pero falsas, como imágenes manipuladas de figuras políticas o famosos. A medida que mejore la tecnología para generar estas imágenes, será cada vez más difícil saber si una imagen es real o generada por una IA, lo que hace aún más importante poder identificar las imágenes generadas por IA, para evitar la difusión de información falsa.
Por último, y como apuntaba Calum Chace en nuestro último Future Trends Forum, la próxima generación de IA generativa multiplicará por varios órdenes de magnitud el número de parámetros que maneja y será mucho más sofisticada y por tanto, generará resultados mucho más difíciles de distinguir frente a las creaciones humanas que los actuales.
Veamos qué se está haciendo para distinguir la procedencia de los contenidos.
Detectando si un contenido es generado por una inteligencia artificial
Existen ya investigaciones publicadas sobre cómo detectar textos generados por IA. Un método habitual consiste en utilizar programas informáticos para analizar distintas características del texto, por ejemplo, la fluidez con la que se lee, la frecuencia con la que aparecen determinadas palabras o si existen patrones de puntuación o longitud de las frases.
Otra forma de hacerlo es utilizando los propios modelos de lenguaje: volviendo a entrenar el modelo con textos escritos por humanos y otros creados por máquinas, de manera que aprenda a diferenciar entre ambos.
Por último, se podría embeber en el propio generador de texto, es decir, incluir una secuencia secreta e imperceptible en la elección de las palabras -algo así como una “marca de agua”-, que se puede utilizar para demostrar más tarde que ese texto, efectivamente, ha sido generado por una IA. OpenAI está trabajando en ello, aunque por el momento no existe una solución satisfactoria.
Herramientas para detectar contenidos generados por inteligencia artificial
Respecto a herramientas concretas, una de las que ya está disponible es GLTR (Giant Language Model Test Room), que resalta las frases de un texto que podrían haber sido generados por un programa informático.
Desarrollada sobre GPT-2, también se encuentra, en formato demostración, aunque plenamente utilizable, el GPT-2 Output Detector Demo.
Y para acabar con respecto a herramientas para la detección de cómo se ha generado un texto, está GPTZero, que se hizo viral en Twitter el 3 de enero de 2023 con más de 7 millones de visitas.
Respecto a la generación de imágenes, determinar si una imagen ha sido generada por una persona o por una inteligencia artificial, resulta aún más complicado. En este ámbito, lo más avanzado es intentar detectar si una imagen se ha creado con redes generativas adversariales (GAN, por sus siglas en inglés), que es lo que utilizan las IAs generativas. Es decir, un detector de GAN. A día de hoy, los resultados no son fiables, pero se esperan avances significativos.
Hemos comprobado con una de estas herramientas, en concreto con GPT-2 Output Detector Demo, si el texto que acabas de leer ha sido generado por una persona o por una IA. El resultado: nos dice que con un 99.98% de probabilidades, ha sido generado por una persona. En este caso, parece que acierta, ¿o no? 😉