Política editorial sobre el uso de la IA en sus publicaciones
POLÍTICA EDITORIAL SOBRE EL USO DE LA INTELIGENCIA ARTIFICIAL (IA) EN LAS PUBLICACIONES DE LA EDITORIAL UNED
(Aprobado por el Consejo Editorial de fecha 26 de marzo del 2026)
ÍNDICE
Uso de la IA en la elaboración del texto.
Usos permitidos y no permitidos.
Uso de la IA por parte del equipo editorial.
Uso de la IA en la evaluación por pares.
Protección de la confidencialidad y privacidad de datos.
Cláusula sobre incumplimiento.
Evaluación y actualización de esta política.
Referencias y bibliografía relevante.
El presente documento de Política editorial tiene por objeto establecer las medidas para regular el uso de herramientas de inteligencia artificial (IA) en los procesos de creación, evaluación, edición y publicación de obras académicas gestionadas por la Editorial UNED con el fin de promover y salvaguardar el respeto a los principios de integridad académica, responsabilidad intelectual, transparencia, rigor científico, protección de datos personales y cumplimiento de la normativa vigente.
Esta propuesta se enmarca en las actuaciones de buenas prácticas de la Editorial UNED y se elabora en consonancia con las directrices internacionales en materia de ética editorial y buenas prácticas en la publicación científica, y en particular con las recomendaciones del Committee on Publication Ethics (COPE) y de la Unión de Editoriales Universitarias Españolas (UNE), así como con otras guías editoriales de referencia sobre el uso responsable de la inteligencia artificial en el ámbito académico.
Las medidas establecidas en el marco de esta Política Editorial serán de aplicación obligatoria a todos los agentes que intervienen en el proceso de elaboración de una obra de la Editorial UNED, en particular a:
- Las personas autoras de obras académicas, científicas o docentes publicadas por la Editorial UNED.
- Los miembros del equipo editorial, consejos científicos y personal técnico vinculado al proceso editorial.
- Las personas revisoras externas que participen en procesos de evaluación por pares.
La política se aplicará a todas las fases del proceso editorial, incluyendo, entre otras, la concepción del manuscrito, la redacción, el análisis de datos, la evaluación, la edición, la maquetación, la producción y la difusión de las obras.
USO DE LA IA EN LA ELABORACIÓN DEL TEXTO.
Los autores deben tener en cuenta los principios éticos sobre el uso de la IA establecidos por el COPE si desean utilizar este tipo de herramientas en la elaboración del manuscrito, incluyendo entre otros la redacción, edición, traducción, elaboración de gráficos, realización de análisis estadísticos, gestión de referencias, etc.
Las personas autoras deberán declarar de forma expresa, completa y veraz cualquier uso de herramientas de inteligencia artificial que haya tenido incidencia en la elaboración del manuscrito.
Dicha declaración deberá incluir, cuando resulte pertinente, la identificación de la herramienta utilizada, la finalidad concreta de su uso, el grado de intervención humana posterior y las medidas adoptadas para verificar la exactitud, originalidad, ausencia de sesgos y fiabilidad del contenido resultante. Para ello, puede seguirse el modelo propuesto por la Association of College and Research Libraries (ACRL).
La omisión de esta declaración se considerará un incumplimiento de la presente Política y causará la interrupción del proceso editorial o el rechazo del manuscrito en cualquier momento, con el fin de preservar la integridad académica, la transparencia y la calidad científica de la publicación.
USOS PERMITIDOS Y USOS NO PERMITIDOS.
Las herramientas de inteligencia artificial podrán ser utilizadas exclusivamente como instrumentos auxiliares o de apoyo, no pudiendo emplearse como sustituto del trabajo intelectual, analítico o crítico que corresponde a la persona autora.
El uso de IA deberá realizarse con diligencia profesional, garantizando en todo momento la veracidad, exactitud, coherencia interna y adecuación académica de los contenidos generados o asistidos por dichas herramientas.
Usos permitidos:
Se considerará conforme a esta política el uso de IA para tareas de carácter instrumental, tales como la corrección lingüística, la mejora de estilo, la traducción, la sistematización de datos, así como la revisión del estilo de las referencias bibliográficas, entre otras de naturaleza análoga y carácter instrumental que no sustituyan la aportación intelectual ni la responsabilidad de la persona autora.
Usos no permitidos:
No podrán utilizarse herramientas de IA para la generación total o parcial de capítulos o secciones del manuscrito que constituyan aportaciones científicas propias; ni para la creación, manipulación, alteración o falsificación de datos, imágenes o resultados de investigación; ni para incorporar referencias bibliográficas generadas automáticamente sin la correspondiente comprobación y verificación por parte de la persona autora; así como cualquier uso que tenga por finalidad eludir controles de plagio, ocultar la falta de originalidad o sustituir el razonamiento crítico.
La atribución de autoría implica la responsabilidad íntegra sobre el contenido de la obra, incluida la selección y uso de herramientas de IA, los prompts empleados y la validación crítica de los resultados obtenidos.
La responsabilidad plena sobre la obra recae exclusivamente sobre personas físicas o jurídicas, no siendo posible atribuir ningún tipo de responsabilidad ni autoría a herramientas de IA (autores no humanos).
Del mismo modo, la originalidad del trabajo debe quedar garantizada expresamente por los autores. Cualquier uso de IA deberá preservar dicha originalidad y no podrá poner en riesgo la contribución intelectual propia de la obra, evitando incurrir en situación de plagio, autoplagio o la infracción de derechos de autor, así como en la generación de contenido de carácter sesgado, impreciso, falsificado o incorrecto.
USO DE IA POR PARTE DEL EQUIPO EDITORIAL.
A lo largo del proceso editorial, podrán emplearse herramientas asistidas por IA para ciertos propósitos, esencialmente administrativos o de apoyo editorial, como la detección de incidencias formales, la clasificación de envíos o la revisión de aspectos técnicos y de formato.
Estas herramientas se utilizarán únicamente como apoyo al trabajo humano y no sustituirán el criterio ni la responsabilidad del equipo editorial.
En todo caso, la supervisión y las decisiones finales corresponderán al personal responsable de la Editorial UNED, que velará por la calidad e integridad del proceso.
USO DE LA IA EN LA EVALUACIÓN POR PARES.
Durante el proceso de revisión por pares, se actuará con especial prudencia en todo lo relativo al manejo de herramientas de inteligencia artificial, dado que, en su estado actual de desarrollo, estas tecnologías no pueden sustituir el juicio experto ni la responsabilidad académica de los evaluadores.
Del mismo modo, no deberán compartirse manuscritos ni materiales inéditos con herramientas de IA que puedan almacenar, reutilizar o emplear dicha información para el entrenamiento de sus modelos. La confidencialidad de los originales constituye un principio esencial del proceso de evaluación.
En consecuencia, no podrán utilizarse herramientas de IA para:
- automatizar los informes de evaluación.
- generar valoraciones académicas de los manuscritos.
- adoptar decisiones editoriales basadas en resultados generados por la IA.
La responsabilidad del contenido del informe y del juicio emitido corresponderá en todo momento al evaluador. El respeto a estos principios forma parte de las buenas prácticas editoriales y de los deberes de confidencialidad propios del proceso de revisión.
PROTECCIÓN DE LA CONFIDENCIALIDAD Y PRIVACIDAD DE DATOS.
No deberá introducirse información confidencial, datos personales o datos sensibles de la investigación en herramientas de IA generativa de uso público que puedan indexar o utilizar el contenido para su entrenamiento. Se deben utilizar herramientas que garanticen la privacidad y el cifrado, así como entornos controlados (instalaciones locales o servidores privados) que permitan proteger adecuadamente el contenido y evitar su reutilización no autorizada.
El uso de herramientas de IA en el ámbito de la Editorial UNED deberá ajustarse en todo momento a los principios éticos de la investigación académica y de la publicación científica, de conformidad con las recomendaciones del Committee on Publication Ethics (COPE) y con las buenas prácticas editoriales internacionalmente reconocidas (Wiley, 2026).
Dichas herramientas deberán utilizarse exclusivamente como apoyo al trabajo intelectual humano y no como sustituto de este, garantizando la transparencia, la supervisión humana efectiva y la responsabilidad plena de las personas autoras, editoras y revisoras.
Se considerará contrario a la ética editorial cualquier uso de la inteligencia artificial que pueda comprometer la originalidad, veracidad, trazabilidad o reproducibilidad de la investigación, que introduzca sesgos, errores sistemáticos o información no verificable, o que sustituya el juicio crítico y la responsabilidad humana en la elaboración o evaluación de los contenidos.
CLAUSULA SOBRE INCUMPLIMIENTO.
El incumplimiento de la presente política, ya sea de forma intencional o negligente, será evaluado conforme a las directrices de COPE y a la normativa interna de la Editorial UNED y podrá conllevar, cuando proceda, la no aceptación del manuscrito o la retirada del proceso editorial, la retractación de publicaciones ya editadas, la asunción de los costes económicos que hasta el momento se hayan generado, así como aquellas que se estimen oportunas.
EVALUACIÓN Y ACTUALIZACIÓN DE ESTA POLÍTICA.
La presente Política será objeto de revisión periódica, con el fin de adaptarse a los avances tecnológicos, a los cambios normativos y a la evolución de las buenas prácticas editoriales en materia de inteligencia artificial. Su revisión, actualización y aprobación es competencia del Consejo Editorial.
REFERENCIAS Y BIBLIOGRAFÍA RELEVANTE.
Association of College and Research Libraries. (2025). The Artificial Intelligence Disclosure (AID) Framework. https://crln.acrl.org/index.php/crlnews/article/view/26548/34482
COPE (2023). COPE-position, authorship and AI tools. https://publicationethics.org/guidance/cope-position/authorship-and-ai-tools
López-Martín, E. (2023). El papel de la inteligencia artificial generativa en la publicación científica [The role of generative artificial intelligence in scientific publishing]. Educación XX1, 27(1), 9-15. https://doi.org/10.5944/ educxx1.39205
Unión de Editoriales Universitarias Españolas (2025). Guía para establecer una declaración de Buenas Prácticas de uso de Inteligencia Artificial para publicaciones académicas https://www.une.es/media/2025/Mesa_5_Guia_declaracion_Buenas_Practicas_IA.pdf
Wiley (2026). Using AI tools in your research https://www.wiley.com/en-us/publish/article/ai-guidelines/#guide