
El 74% de los encuestados afirma utilizar IA generativa, principalmente para tareas operativas como la sugerencia de titulares (56,3%), la transcripción de entrevistas (46,5%), la documentación (42,3%) o el apoyo creativo (49,3%). Sin embargo, solo el 4,2% permite que estas herramientas redacten noticias de forma autónoma, y apenas un 11,3% las usa para verificar datos.
Este uso limitado en funciones críticas responde a una decisión consciente: más de la mitad (53,5%) considera que ciertas aplicaciones deberían estar prohibidas o restringidas, especialmente aquellas que afectan directamente a la calidad informativa y la veracidad.
Preocupación por la ética y la transparencia
Pese a su adopción creciente, la IA genera inquietudes entre los profesionales. Las principales preocupaciones incluyen la posible pérdida de calidad informativa (55,7%), la propagación de errores o sesgos (48,2%) y el temor al reemplazo del trabajo humano (41,8%). Además, un 60% considera que el lector debe ser informado cuando se ha utilizado IA en la elaboración de un contenido.
Solo un tercio de los periodistas afirma sentirse capacitado para usar IA con garantías. La mayoría demanda formación técnica, ética y narrativa para afrontar esta transición con criterio profesional. Actualmente, solo el 31% trabaja en medios que cuentan con una política definida sobre el uso de estas tecnologías.
Hacia un modelo híbrido, con supervisión humana
El estudio señala que el futuro del periodismo pasa por un modelo híbrido, donde la IA actúa como herramienta complementaria bajo supervisión humana. Herramientas como ChatGPT (82,3%), Microsoft Copilot (31,3%) o Gemini/Bard (30,2%) dominan un ecosistema en fase de prueba y aprendizaje.