(Portaltic/EP) – Añadir etiquetas que indican que un titular ha sido generado por inteligencia artificial (IA) aumenta el escepticismo de los posibles lectores sobre su contenido, incluso si son titulares verdaderos o redactados por humanos, dado que se asume una automatización completa de la publicación con IA.
Con la llegada de herramientas de IA capaces de generar todo tipo de contenido, ya sea texto o imágenes de forma sencilla, se hace necesario ofrecer a los usuarios un contexto informativo sobre el contenido que ven en internet, de cara a evitar divulgación de información falsa y aclarar qué contenido es sintético.
En este sentido, múltiples plataformas como Meta, YouTube, Google o TikTok, entre otros, disponen de herramientas para etiquetar el contenido que haya sido generado o modificado mediante funciones de IA e informar visiblemente de ello a los usuarios. Asimismo, también destaca del uso del protocolo de Internet Universal que ofrece la Coalición para la Procedencia y Autenticidad del contenido (C2PA), del que ya forman parte OpenAI, Microsoft, Intel y Adobe, entre otros.
Incluso, el uso de estas etiquetas de contenido generado por IA es una de las pautas recogidas en el marco de la ley de gobernanza de IA, aprobada por el Gobierno de España basándose en el reglamento europeo de IA.
Aunque su uso es necesario para identificar el contenido con IA, que puede ser muy realista, se ha de tener en cuenta cómo pueden impactar estas etiquetas en la percepción por parte de los usuarios, reflejando la necesidad de etiquetar de forma más específica para no perjudicar el contenido de alta calidad y las noticias legítimas.
Un reciente estudio compartido por la revista científica PNAS Nexus, que investiga el impacto de las etiquetas de generado por IA, ha reflejado que su uso en titulares ayuda a aumentar el escepticismo entre los usuarios, reduciendo su credibilidad al asumir que todo el texto ha sido generado por IA, incluso si son titulares verdaderos o redactados por humanos.
Concretamente, el informe se ha basado en dos experimentos elaborados con participantes de Estados Unidos y Reino Unido. El Estudio 1 ha investigado cómo etiquetar los titulares como generados por IA influye tanto en la precisión percibida de los titulares como en la intención de los participantes de compartirlos, mientras que el Estudio 2 explora los mecanismos responsables de que se aumente el escepticismo.
Como resultado, se ha demostrado que, si bien los participantes no equiparan el contenido generado por IA con el contenido falso, etiquetar los titulares como generados por IA sí redujo su precisión percibida, así como la disposición de los usuarios de compartirlos con otras personas.
Así, esta «aversión» a la IA se debe a las expectativas de que los titulares generados con esta tecnología, no cuentan con supervisión humana, por lo que no cuentan con confirmación de que sean correctos o verdaderos.
Según los datos, este escepticismo se identificó entre los usuarios independientemente de si los titulares ofrecían información verdadera o falsa, o de si estaban creados por humanos o por IA. Es decir, bastó con utilizar la etiqueta de generado con IA para crear dudas.
No obstante, el estudio también deja ver que el impacto de etiquetar los titulares como generados con IA fue «tres veces menor» que etiquetarlos como falsos. Por tanto, se deja ver que, en caso de ser un contenido falso generado por IA, es más efectivo etiquetarlo como falso directamente, en lugar de como generado con IA.
Con todo ello, los hallazgos compartidos sugieren que el uso de etiquetas de generado por IA «debe abordarse con cautela» para evitar efectos negativos no deseados, por ejemplo, en el caso de que sea contenido real e inofensivo o, incluso, beneficioso para los usuarios, pero esté generado por IA.
Las conclusiones también reflejan la necesidad de desplegar este tipo de medidas de etiquetado de forma transparente, explicando claramente qué indica cada etiqueta, para no crear confusión entre los usuarios a la hora de leer o visualizar contenido en internet.
«En términos más generales, estar expuesto a etiquetas de IA puede actuar como una especie de advertencia de que el entorno en línea está saturado de contenido generado por IA y no es un espacio confiable para adquirir información confiable», sentencia el estudio.




