El uso de la inteligencia artificial en la escritura académica está transformando de manera significativa la producción y comunicación científica. Herramientas como ChatGPT y otros modelos generativos ofrecen distintas ventajas para la investigación:
Procesamiento de grandes volúmenes de información, facilitando la síntesis de literatura científica.
Identificación de patrones y tendencias, lo que ayuda a los investigadores a contextualizar sus trabajos dentro de un marco más amplio.
Generación rápida de borradores o propuestas de contenido, que pueden servir de apoyo en fases iniciales de redacción.
Asistencia lingüística y estilística, especialmente útil para mejorar la claridad, cohesión y corrección gramatical en otros idiomas.
No obstante, junto a estas ventajas emergen desafíos éticos, sociales y académicos que no deben pasarse por alto y desarrollados también en esta guía.
Estas herramientas son tan buenas como puedan serlo sus datos subyacentes, pudiendo ser datos erróneos, sesgados, etc.
Un resultado generado por IA podrá ser gramaticalmente correcto pero puede tener información falsa o inventada por el modelo.
Por otra parte, según algunos editores, los chatbots tienen usos legítimos al escribir artículos. La clave es informar a los lectores sobre lo que se hizo. Es conveniente consultar las normas editoriales y si hacen alguna referencia o tienen código ético sobre el uso de IA.
Si bien son muchas las ventajas de uso en Investigación de herramienta de IA, también emergen importantes desafíos éticos, sociales y académicos que no deben pasarse por alto:
Autoría y atribución: es necesario definir con claridad el papel de la IA en la redacción y reconocerlo de forma transparente.
Fiabilidad de la información: los modelos pueden generar contenido gramaticalmente correcto pero carente de veracidad, llegando incluso a inventar referencias o “alucinar” datos.
Sesgos y calidad de los datos: la producción depende directamente de los corpus de entrenamiento, que pueden estar incompletos, desactualizados o contener sesgos.
Riesgo de desinformación convincente: los textos generados pueden parecer fiables y coherentes, aunque en realidad transmitan información errónea o manipulada.
Es por esta razón que en los últimos años, distintas editoriales y comités de revistas académicas han publicado directrices sobre el uso de la inteligencia artificial generativa en la creación de trabajos científicos. En general, estas recomendaciones insisten en la necesidad de un uso responsable, transparente y ético de estas tecnologías en el ámbito editorial.
La IA no puede figurar como autora de los artículos. La autoría corresponde únicamente a personas.
Transparencia de los autores: deben informar claramente si han utilizado herramientas de IA generativa y en qué medida.
Supervisión editorial: los editores deben disponer de mecanismos y estrategias que garanticen la transparencia en el uso de la IA por parte de los autores.
Proceso de revisión: editores y revisores no deben depender únicamente de herramientas de IA para evaluar manuscritos.
Responsabilidad final: tanto la revisión como la edición de los artículos recae exclusivamente en los editores y autores humanos.
Distintas editoriales van realizando manifestaciones acerca del uso de la IA en la creación de trabajos científicos. Estas recomendaciones se refieren al uso responsable y ético de estas herramientas.
A estas recomendaciones se unen otras dos consideraciones generales:
Fuente: Kaebnick, Gregory E., David Christopher Magnus, Audiey Kao, Mohammad Hosseini, David Resnik, Veljko Dubljević, Christy Rentmeester, Bert Gordijn, y Mark J. Cherry. «Editors’ Statement on the Responsible Use of Generative AI Technologies in Scholarly Journal Publishing». Hastings Center Report n/a, n.o n/a. Accedido 2 de noviembre de 2023. https://doi.org/10.1002/hast.1507.
Sobre posibles usos de la IA en los procesos editoriales, este artículo ofrece una serie de propuestas sobre buenas prácticas
Lopezosa, Carlos(2023). “La inteligencia artificial en los procesos editoriales de las revistas académicas: propuestas prácticas [Artificial intelligence in the editorial processes of academic journals: Practical proposals”. Infonomy, v. 1, e23009
https://doi.org/10.3145/infonomy.23.009
Cada vez más, editoriales científicas incorporan recomendaciones y políticas sobre el uso de la Inteligencia Artificial. Es recomendable que los autores y autoras conozcan dichas recomendaciones durante sus procesos de comunicación científica. Algunos ejemplos:
Elsevier: Política de autor de Elsevier AI
A modo ilustrativo, podemos comparar algunas de estas políticas:
Editorial / Revista |
Políticas principales sobre IA generativa |
Declaración / Transparencia |
Uso en revisión / evaluación |
Imágenes / gráficos generados por IA |
Observaciones adicionales |
Elsevier |
Las herramientas de IA pueden usarse para mejorar legibilidad/lenguaje, pero no para reemplazar tareas clave del autor. |
Se exige declarar su uso en el manuscrito |
No se permite que revisores suban manuscritos a herramientas de IA (por confidencialidad). |
Las imágenes generadas por IA no están permitidas, salvo que formen parte del diseño del experimento y estén debidamente descritas. |
|
Springer |
No permite que la IA figure en autoría. |
Transparencia requerida. |
En el proceso editorial y de evaluación, puede utilizarse IA en etapa inicial pero con supervisión humana. |
No se permite texto generado por IA en imágenes o vídeos (salvo excepciones bien justificadas). |
Ha desarrollado herramientas para detectar textos sospechosos generados por IA. |