miércoles, enero 28, 2026
spot_img

Etiquetar los titulares como generados por IA reduce la credibilidad del contenido incluso si es real, según un estudio

Date:

Compartir:

(Portaltic/EP) – Añadir etiquetas que indican que un titular ha sido generado por inteligencia artificial (IA) aumenta el escepticismo de los posibles lectores sobre su contenido, incluso si son titulares verdaderos o redactados por humanos, dado que se asume una automatización completa de la publicación con IA.

Con la llegada de herramientas de IA capaces de generar todo tipo de contenido, ya sea texto o imágenes de forma sencilla, se hace necesario ofrecer a los usuarios un contexto informativo sobre el contenido que ven en internet, de cara a evitar divulgación de información falsa y aclarar qué contenido es sintético.

En este sentido, múltiples plataformas como Meta, YouTube, Google o TikTok, entre otros, disponen de herramientas para etiquetar el contenido que haya sido generado o modificado mediante funciones de IA e informar visiblemente de ello a los usuarios. Asimismo, también destaca del uso del protocolo de Internet Universal que ofrece la Coalición para la Procedencia y Autenticidad del contenido (C2PA), del que ya forman parte OpenAI, Microsoft, Intel y Adobe, entre otros.

Incluso, el uso de estas etiquetas de contenido generado por IA es una de las pautas recogidas en el marco de la ley de gobernanza de IA, aprobada por el Gobierno de España basándose en el reglamento europeo de IA.

Aunque su uso es necesario para identificar el contenido con IA, que puede ser muy realista, se ha de tener en cuenta cómo pueden impactar estas etiquetas en la percepción por parte de los usuarios, reflejando la necesidad de etiquetar de forma más específica para no perjudicar el contenido de alta calidad y las noticias legítimas.

Un reciente estudio compartido por la revista científica PNAS Nexus, que investiga el impacto de las etiquetas de generado por IA, ha reflejado que su uso en titulares ayuda a aumentar el escepticismo entre los usuarios, reduciendo su credibilidad al asumir que todo el texto ha sido generado por IA, incluso si son titulares verdaderos o redactados por humanos.

Concretamente, el informe se ha basado en dos experimentos elaborados con participantes de Estados Unidos y Reino Unido. El Estudio 1 ha investigado cómo etiquetar los titulares como generados por IA influye tanto en la precisión percibida de los titulares como en la intención de los participantes de compartirlos, mientras que el Estudio 2 explora los mecanismos responsables de que se aumente el escepticismo.

Como resultado, se ha demostrado que, si bien los participantes no equiparan el contenido generado por IA con el contenido falso, etiquetar los titulares como generados por IA sí redujo su precisión percibida, así como la disposición de los usuarios de compartirlos con otras personas.

Así, esta «aversión» a la IA se debe a las expectativas de que los titulares generados con esta tecnología, no cuentan con supervisión humana, por lo que no cuentan con confirmación de que sean correctos o verdaderos.

Según los datos, este escepticismo se identificó entre los usuarios independientemente de si los titulares ofrecían información verdadera o falsa, o de si estaban creados por humanos o por IA. Es decir, bastó con utilizar la etiqueta de generado con IA para crear dudas.

No obstante, el estudio también deja ver que el impacto de etiquetar los titulares como generados con IA fue «tres veces menor» que etiquetarlos como falsos. Por tanto, se deja ver que, en caso de ser un contenido falso generado por IA, es más efectivo etiquetarlo como falso directamente, en lugar de como generado con IA.

Con todo ello, los hallazgos compartidos sugieren que el uso de etiquetas de generado por IA «debe abordarse con cautela» para evitar efectos negativos no deseados, por ejemplo, en el caso de que sea contenido real e inofensivo o, incluso, beneficioso para los usuarios, pero esté generado por IA.

Las conclusiones también reflejan la necesidad de desplegar este tipo de medidas de etiquetado de forma transparente, explicando claramente qué indica cada etiqueta, para no crear confusión entre los usuarios a la hora de leer o visualizar contenido en internet.

«En términos más generales, estar expuesto a etiquetas de IA puede actuar como una especie de advertencia de que el entorno en línea está saturado de contenido generado por IA y no es un espacio confiable para adquirir información confiable», sentencia el estudio.

Joel G. Durán
Joel G. Duránhttps://www.info.bo
Periodista digital desde el año 2006.
spot_img

━ noticias similares

Reina Hispanoamericana 2026 inicia actividades en su trigésima sexta versión

Santa Cruz de la Sierra, Bolivia. – El certamen internacional Reina Hispanoamericana 2026, organizado por Promociones Gloria, inicia oficialmente su 36ª versión en la...

La Fuerza Armada de Venezuela reconoce a Delcy Rodríguez como su comandante en jefe

La presidenta pide aprender de los "infortunios" tras el ataque de EEUU y anuncia la creación de una oficina nacional para la defensa y...

Se encuentran microplásticos en un tercio de los peces estudiados en las costas de islas remotas del Pacífico

(EUROPA PRESS) - Un tercio de los peces que viven en las remotas aguas costeras de los países y territorios insulares del Pacífico están...

Motorola celebra su colaboración con el Mundial 2026 con el lanzamiento de los modelos g77, g67, g17 y g17 power

(Portaltic/EP) - Motorola ha presentado los nuevos 'smartphones' g77, g67, g17 y g17 power en el marco de la colaboración con la FIFA de...

Gemini 3 Flash examina de manera activa las imágenes con la nueva visión agéntica

(Portaltic/EP) - Google ha mejorado la capacidad de Gemini 3 Flash para comprender imágenes con 'agentic vision' (visión agéntica), una característica con la que...
spot_img