Política de uso de inteligencia artificial en la asignatura (v. 4.1.2)

Desde el año pasado empecé a trabajar en un documento que pudiera utilizar en clase para ayudar a mis estudiantes a navegar el uso informado, transparente, ético, y responsable de la inteligencia artificial en el ámbito académico.

Hoy terminé la versión 4.1.2 de la política de uso de inteligencia artificial en la asignatura que usaré en la Universidad del Rosario. La política se ha nutrido de las reflexiones de colegas de todo el mundo y de la Universidad del Rosario, de mis estudiantes, de personas que comentan mis tuits, y de los ejemplos de uso de ChatGPT, no muy afortunados, que recientemente nos ofrecieron un juez laboral de Cartagena y una magistrada del Magdalena.

Como buen profesor de política pública, traté de darle a la política una estructura integral y también inserté múltiples hipervínculos con lecturas adicionales para quien esté interesado en profundizar.

La política cuenta con cinco secciones:

  • 1. Justificación de la política
  • 2. Objetivos de la política
  • 3. Reglas de uso de IA dentro y fuera del salón de clase
  • 4. Por qué es necesario el uso informado, transparente, ético y responsable de IA en la asignatura
  • 5. Política abierta al cambio

Además, en relación con el uso de IA Generativa, la política explica qué es el uso informado, transparente, ético y responsable de IA en la asignatura:

  1. Uso informado. Que previo a su uso hayan investigado quién o qué empresa desarrolló la herramienta, cómo fue desarrollada, cómo funciona, qué funciones puede desempeñar, y qué limitaciones y/o riesgos presenta.
  2. Uso transparente. Que indiquen detallada y expresamente qué herramienta usaron y cómo la usaron (un requisito que actualmente solicitan las revistas científicas a quienes entregan manuscritos para revisión de pares).
  3. Uso ético. Que sea posible distinguir qué fue escrito o producido directamente por ustedes y qué fue generado por una herramienta de IA. Respecto de este punto, aplican las reglas de citación generales, por ejemplo, usar comillas si incluyen apartes textuales. Las infracciones a esta política, particularmente respecto del segundo requisito, serán abordadas bajo un enfoque similar al que aplica en casos de plagio. Además, ChatGPT no es una persona, luego no puede ser considerado su coautor (así como no se incluye a “Google” como coautor de trabajos o publicaciones). Algunas revistas científicas ya han actualizado sus políticas de publicación para aclarar que los modelos de lenguaje como ChatGPT no satisfacen sus criterios de atribución de “autoría”.
  4. Uso responsable. Se recomienda que el uso de estas IA se circunscriba a etapas tempranas de la investigación, para inspirar o sugerir rumbos, no para producir contenido que luego sea incluido en sus entregas. En todo caso, si optan por transcribir textos producidos por IA Generativa, deben acreditar que contrastaron rigurosamente dicha información con fuentes confiables dado que los modelos de lenguaje a gran escala (Large Language Models – LLMs) como ChatGPT tienden a ofrecer información imprecisa, errónea, e inventada.

Muchas cosas están pasando muy rápido en relación con el desarrollo y accesibilidad a herramientas de IA, entonces seguramente llegarán nuevas versiones de esta política. Además, también está por verse cuál es el balance de la política al final de este primer semestre académico.

Espero que la política pueda ser útil para colegas que quieran usarla para sus propias asignaturas, razón por la cual la publico por este medio bajo Licencia Creative Commons BY 4.0.

Los invito a consultarla, descargarla, usarla y criticarla y de antemano agradezco sus aportes.


Follow us on Social Media