Ir al contenido principal

Inteligencia Artificial. Apoyo a la investigación: Inteligencia Artifical y escritura académica

El uso de la inteligencia artificial en la escritura académica está transformando de manera significativa la producción y comunicación científica. Herramientas como ChatGPT y otros modelos generativos ofrecen distintas ventajas para la investigación:

  • Procesamiento de grandes volúmenes de información, facilitando la síntesis de literatura científica.

  • Identificación de patrones y tendencias, lo que ayuda a los investigadores a contextualizar sus trabajos dentro de un marco más amplio.

  • Generación rápida de borradores o propuestas de contenido, que pueden servir de apoyo en fases iniciales de redacción.

  • Asistencia lingüística y estilística, especialmente útil para mejorar la claridad, cohesión y corrección gramatical en otros idiomas.

No obstante, junto a estas ventajas emergen desafíos éticos, sociales y académicos que no deben pasarse por alto y desarrollados también en esta guía.

Estas herramientas son tan buenas como puedan serlo sus datos subyacentes, pudiendo ser datos erróneos, sesgados, etc.

Un resultado generado por IA podrá ser gramaticalmente correcto pero puede tener información falsa o inventada por el modelo.

Por otra parte, según algunos editores, los chatbots tienen usos legítimos al escribir artículos. La clave es informar a los lectores sobre lo que se hizo. Es conveniente consultar las normas editoriales y si hacen alguna referencia o tienen código ético sobre el uso de IA. 

 

Si bien son muchas las ventajas de uso en Investigación de herramienta de IA, también emergen importantes desafíos éticos, sociales y académicos que no deben pasarse por alto:

  • Autoría y atribución: es necesario definir con claridad el papel de la IA en la redacción y reconocerlo de forma transparente.

  • Fiabilidad de la información: los modelos pueden generar contenido gramaticalmente correcto pero carente de veracidad, llegando incluso a inventar referencias o “alucinar” datos.

  • Sesgos y calidad de los datos: la producción depende directamente de los corpus de entrenamiento, que pueden estar incompletos, desactualizados o contener sesgos.

  • Riesgo de desinformación convincente: los textos generados pueden parecer fiables y coherentes, aunque en realidad transmitan información errónea o manipulada.

Es por esta razón que en los últimos años, distintas editoriales y comités de revistas académicas han publicado directrices sobre el uso de la inteligencia artificial generativa en la creación de trabajos científicos. En general, estas recomendaciones insisten en la necesidad de un uso responsable, transparente y ético de estas tecnologías en el ámbito editorial.

Principales recomendaciones de editores de revistas

  1. La IA no puede figurar como autora de los artículos. La autoría corresponde únicamente a personas.

  2. Transparencia de los autores: deben informar claramente si han utilizado herramientas de IA generativa y en qué medida.

  3. Supervisión editorial: los editores deben disponer de mecanismos y estrategias que garanticen la transparencia en el uso de la IA por parte de los autores.

  4. Proceso de revisión: editores y revisores no deben depender únicamente de herramientas de IA para evaluar manuscritos.

  5. Responsabilidad final: tanto la revisión como la edición de los artículos recae exclusivamente en los editores y autores humanos.

Distintas editoriales van realizando manifestaciones acerca del uso de la IA en la creación de trabajos científicos. Estas recomendaciones se refieren al uso responsable y ético de estas herramientas. 

A estas recomendaciones se unen otras dos consideraciones generales: 

  • Es fundamental DECLARAR en los trabajos científicos el uso de IA, así como qué herramienta y cómo se usó. 
  • Esta declaración es parte del manuscrito. Por ejemplo, en Springer está vinculado a métodos o introducción. 

Fuente: Kaebnick, Gregory E., David Christopher Magnus, Audiey Kao, Mohammad Hosseini, David Resnik, Veljko Dubljević, Christy Rentmeester, Bert Gordijn, y Mark J. Cherry. «Editors’ Statement on the Responsible Use of Generative AI Technologies in Scholarly Journal Publishing». Hastings Center Report n/a, n.o n/a. Accedido 2 de noviembre de 2023. https://doi.org/10.1002/hast.1507.

Sobre posibles usos de la IA en los procesos editoriales, este artículo ofrece una serie de propuestas sobre buenas prácticas

Lopezosa, Carlos(2023). “La inteligencia artificial en los procesos editoriales de las revistas académicas: propuestas prácticas [Artificial intelligence in the editorial processes of academic journals: Practical proposals”. Infonomy, v. 1, e23009

https://doi.org/10.3145/infonomy.23.009
 


 

Cada vez más, editoriales científicas incorporan recomendaciones y políticas sobre el uso de la Inteligencia Artificial. Es recomendable que los autores y autoras conozcan dichas recomendaciones durante sus procesos de comunicación científica. Algunos ejemplos: 

ElsevierPolítica de autor de Elsevier AI

Estamos en:


Biblioteca de la Universidad de Huelva Licencia Creative Commons Licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional .