Noticias>
spanish.china.org.cn | 15. 02. 2023 | Editor:Teresa Zheng Texto

Revista prohíbe incluir chatbot como coautor

Palabras clave: ChatGPT, AI, revista

Una respuesta de ChatGPT, generador de contenido de inteligencia artificial de OpenAI, en su sitio web, 9 de febrero de 2023.


Herramientas de IA como coautor genera dudas respecto a la integridad académica

Una prestigiosa revista académica china prohibió incluir a ChatGPT como coautor en artículos, uniéndose a varios editores que han restringido su uso para evitar imprecisiones y plagios en investigaciones de rigor.

La Revista Jinan (Edición de Filosofía y Ciencias Sociales), publicada por la Universidad de Jinan desde 1936, anunció el viernes que rechazará trabajos que tengan como coautor herramientas a partir de "modelos de lenguaje amplio", como ChatGPT.

Si los colaboradores han utilizado dicha tecnología para escribir sus artículos, deben explicar en detalle su uso y mostrar pruebas de la originalidad de sus estudios, señaló el consejo editorial en un comunicado.

El medio escrito se reservó el derecho de rechazar o retirar artículos de omitirse estos detalles. Añadió que buscará una explicación detallada en caso de que alguno de ellos haga referencias a documentos generados por estos programas.

Desde su lanzamiento en noviembre, ChatGPT, de la empresa estadounidense OpenAI, ha acumulado más de 100 millones de usuarios en el mundo con la creación de textos realistas e inteligentes de acuerdo con las especificaciones de los usuarios.

El modelo de lenguaje amplio es un algoritmo de aprendizaje profundo que puede reconocer, resumir, traducir, predecir y generar textos y otros contenidos de manera coherente y conversacional.

Expertos y estudiantes han utilizado ChatGPT en el ámbito académico, desde redacción de resúmenes de estudios hasta edición de manuscritos. Esto ha llevado a que varios trabajos acrediten al chatbot como coautor, lo que genera dudas sobre la integridad académica.

El mes pasado, Holden Thorp, editor en jefe de la revista Science, prohibió el uso de textos de ChatGPT e impuso una nueva política editorial que rechaza el uso del programa como autor.

"En una reciente investigación, las síntesis de ChatGPT llegaron a manos de revisores académicos, quienes solo detectaron el 63 % de estas falsificaciones", escribió Thorp en una opinión. "Es una gran cantidad de texto creado por inteligencia artificial que podría llegar a la literatura pronto. Para Science, la palabra 'original' es suficiente para que el texto de ChatGPT no sea aceptable".

Muchos editores han realizado cambios similares. El mes pasado, la editorial germano-británica Springer Nature Group declaró que ChatGPT no puede figurar como autor, ya que cualquier aporte conlleva la responsabilidad del trabajo que una herramienta como tal no puede asumir.

Sin embargo, sí pueden utilizarse en la preparación de un documento, si se brindan los detalles completos de su uso, precisó la firma.

“A medida que los investigadores se sumergen en el nuevo y valiente mundo de los chatbots, los editores deben reconocer su utilización legítima y establecer pautas claras para evitar el abuso”, dijo Nature en un artículo de opinión. "La investigación debe ser transparente en los métodos e íntegro y veraz en su autoría. Después de todo, esta es la base de la que se nutre la ciencia para avanzar".

Las últimas indicaciones de la editorial holandesa Elsevier permiten que las herramientas de IA mejoren la legibilidad y el lenguaje de un artículo, pero no pueden realizar tareas críticas como sacar conclusiones científicas.

Un profesor de tecnología de la información en Beijing, que solicitó el anonimato, dijo que los editores deben tomar medidas para regular el uso de la tecnología de inteligencia artificial en la escritura académica a fin de "evitar los atajos y la producción de ciencia basura".

El docente enfatizó que la adopción de estos chatbot en la academia es inevitable y se deben redactar normativas que garanticen su uso honesto y responsable.

   Google+