Política Editorial para el Uso de Inteligencia Artificial en la Redacción de Artículos Científicos
Revista Estudios en Salud Mental
La incorporación de herramientas de inteligencia artificial (IA) en la redacción y elaboración de artículos científicos ha transformado la manera en que se genera y procesa el conocimiento. Esta política editorial tiene como finalidad regular el uso de IA en la preparación de manuscritos para la revista Estudios en Salud Mental. Se dirige a autores, revisores y al equipo de edición y corrección, estableciendo directrices claras que aseguren la transparencia, integridad y calidad de las publicaciones. Se busca promover la innovación y el rigor científico, evitando prácticas que puedan comprometer la autoría, la originalidad y la veracidad de la información.
Transparencia: Garantizar que el uso de IA se declare y documente de manera precisa en cada manuscrito.
Rigor Científico: Asegurar que las herramientas de IA complementen, y no reemplacen, la capacidad crítica y analítica de los investigadores.
Integridad: Prevenir el plagio y la generación de contenido sesgado o inexacto a través de controles específicos.
Calidad Editorial: Fortalecer el proceso de revisión y corrección mediante directrices claras para el uso ético de la IA.
Inteligencia Artificial (IA): Sistemas o aplicaciones que utilizan algoritmos para asistir en la redacción, análisis de datos y elaboración de textos científicos.
Uso de IA: Se refiere tanto a la asistencia en la redacción como a la edición, corrección o generación de contenidos científicos.
Transparencia en el uso de IA: La declaración explícita de las herramientas utilizadas, su función en el proceso de elaboración del manuscrito y la justificación de su uso.
Declaración Obligatoria
Los autores deben incluir en la sección de metodología o en un apartado específico, una declaración que informe sobre el uso de herramientas de IA. Esta declaración debe describir la herramienta empleada, su función (por ejemplo, generación de borradores, análisis de datos o revisión gramatical) y el alcance de su intervención.
Se recomienda incluir detalles como versión de la herramienta, fecha de uso y cualquier limitación identificada durante el proceso.
Responsabilidad y Originalidad
La IA debe ser utilizada como un apoyo que complemente la capacidad analítica del investigador, sin reemplazar la responsabilidad intelectual en la interpretación y análisis de los datos.
Los autores deben asegurarse de que el contenido generado mediante IA sea revisado, validado y adaptado para garantizar su veracidad, pertinencia y originalidad.
Queda prohibido el uso de IA para generar datos o resultados sin una verificación empírica y la correspondiente discusión crítica.
Integridad y Ética
Se espera que los autores sean transparentes en cuanto a la fuente y naturaleza del contenido asistido por IA, evitando prácticas que puedan constituir plagio o falsificación de resultados.
Cualquier error o sesgo introducido por la herramienta deberá ser corregido y señalado en la versión final del manuscrito.
Evaluación Crítica del Uso de IA
Los revisores deberán prestar especial atención a la declaración del uso de IA en los manuscritos. Se recomienda solicitar aclaraciones o documentación adicional en casos donde el uso de IA pueda haber influido en la elaboración de los argumentos o en la presentación de datos.
Se debe evaluar si la utilización de la herramienta de IA ha contribuido de manera positiva al desarrollo del contenido y si ha sido adecuadamente supervisada por los autores.
Criterios de Calidad y Transparencia
La revisión debe incluir una valoración de la integridad del contenido generado con ayuda de IA, verificando que el manuscrito refleje un análisis crítico y que la tecnología se haya empleado de forma complementaria y no sustitutiva.
Los revisores pueden sugerir la inclusión de referencias bibliográficas adicionales o el enriquecimiento de la discusión en caso de que se identifiquen omisiones o dependencias excesivas en el uso de la herramienta.
Reportar Inconsistencias
En situaciones donde se detecten posibles irregularidades, plagio o falta de declaración sobre el uso de IA, el revisor deberá informar al equipo editorial para que se realice una revisión más detallada y, en caso necesario, se tomen las medidas correspondientes.
Verificación de Declaraciones
El equipo editorial es responsable de asegurarse de que todos los manuscritos contengan la declaración obligatoria sobre el uso de IA.
Se establecerán protocolos internos para la revisión de estas declaraciones y, de ser necesario, se solicitarán precisiones adicionales a los autores antes de la aprobación final del manuscrito.
Herramientas de Detección y Validación
Se promoverá el uso de herramientas propias o de terceros para detectar posibles irregularidades o plagios asociados al contenido generado con IA.
El equipo de corrección debe estar capacitado para identificar inconsistencias en la redacción que pudieran indicar un uso desproporcionado o inadecuado de la IA.
Actualización y Capacitación Continua
Se organizarán talleres y sesiones de capacitación periódicas para el equipo editorial, orientados a actualizar conocimientos sobre nuevas herramientas de IA y a establecer mejores prácticas en la revisión y corrección de manuscritos.
La política será revisada y actualizada de forma regular para adaptarse a los avances tecnológicos y a las tendencias emergentes en la producción científica.
Documentación y Registro
Cada autor debe mantener un registro detallado de cómo y cuándo se emplearon herramientas de IA durante el proceso de redacción. Este registro servirá como referencia en caso de revisión y contribuirá a la transparencia del proceso científico.
Uso Complementario
Se recomienda que la IA se utilice únicamente como una herramienta complementaria. La elaboración de ideas, el análisis crítico y la interpretación de los datos deben seguir siendo responsabilidad exclusiva del autor.
Colaboración y Comunicación
Se alienta a los autores a discutir abiertamente el uso de IA en sus equipos de investigación y a compartir experiencias y mejores prácticas. Del mismo modo, los revisores y el equipo editorial deben fomentar un diálogo constructivo para mejorar continuamente la calidad de las publicaciones.
Ética y Responsabilidad
Toda utilización de IA debe regirse por principios éticos que prioricen la integridad del conocimiento científico. El mal uso o abuso de estas herramientas, que conduzca a la falsificación de resultados o a la pérdida de rigor, será sancionado de acuerdo con las normativas de la revista.