Autoría y herramientas de IA: declaración de posición del Committee on Publication Ethics (COPE)

COPE: Committee on Publication Ethics. «Authorship and AI Tools». Accedido 16 de febrero de 2023. https://publicationethics.org/cope-position-statements/ai-author.

El uso de herramientas de inteligencia artificial (IA) como ChatGPT o Large Language Models en las publicaciones de investigación se está extendiendo rápidamente. COPE se une a organizaciones como WAME y la Red JAMA, entre otras, para afirmar que las herramientas de IA no pueden figurar como autoras de un artículo.

Las herramientas de IA no pueden cumplir los requisitos de autoría, ya que no pueden asumir la responsabilidad del trabajo presentado. Como entidades no jurídicas, no pueden afirmar la presencia o ausencia de conflictos de intereses ni gestionar los derechos de autor y los acuerdos de licencia.

Los autores que utilicen herramientas de IA en la redacción de un manuscrito, la producción de imágenes o elementos gráficos del artículo, o en la recogida y análisis de datos, deben ser transparentes al revelar en los Materiales y Métodos (o sección similar) del artículo cómo se ha utilizado la herramienta de IA y qué herramienta se ha utilizado. Los autores son plenamente responsables del contenido de su manuscrito, incluso de las partes producidas por una herramienta de IA, y por tanto son responsables de cualquier infracción de la ética de publicación.

Esta entrada se publicó en InvestigaciónTecnologías de la información y está etiquetada con AutoriaÉtica de la informaciónInvestigaciónTecnologías de la información en febrero 16, 2023.

FUENTE: JULIO ALONSO ARÉVALO

Follow us on Social Media