Harwood, Michelle. «AI Wrote the US Constitution, Says AI Content Detector». Medium (blog), 7 de septiembre de 2023. https://medium.com/@
Si se introdujeran algunos extractos de la Constitución de EE.UU. en las herramientas de detección de IA, éstas afirmarían que fue escrita por herramientas de IA como ChatGPT y Google Bard, etc. ZeroGPT parece estar seguro en un 94% de que la IA escribió la Constitución, mientras que originality.ai lo está en un 60%. La Constitución se redactó en el año 1787, es decir, hace más de 200 años. Entonces, ¿crees que es posible que ese viejo documento tenga orígenes de IA? Bueno, eso sólo puede ocurrir si los propios redactores eran robots o si utilizaron una máquina del tiempo para llegar a la era de la tecnología de IA.
La pregunta es, ¿por qué estas herramientas parecen estar tan seguras de etiquetar el documento de hace un año como generado por la IA? Cuando los detectores de IA reciben un texto para analizar, normalmente comprueban la estructura del texto, lo comparan con sus conocimientos y concluyen si ellos habrían escrito de la misma manera al recibir la misma consulta. En caso afirmativo, la herramienta simplemente clasifica el texto como escrito por la IA.
Al analizar la estructura del texto, las herramientas de detección de IA suelen utilizar dos variables diferentes: la perplejidad y la explosividad. Cuanto menor sea el porcentaje de estas dos variables detectadas en el texto, mayores serán las probabilidades de que el contenido esté generado por IA.
Los detectores de IA que etiquetan la Constitución de EE.UU. como generada por IA han suscitado dudas sobre su precisión. De hecho, este no es el único caso en que una herramienta de detección de contenidos de IA ha dado falsos positivos. Anteriormente, también se había descubierto que el Libro del Génesis había sido escrito por IA.
Varios expertos han cuestionado la fiabilidad de los detectores de IA y han expresado su preocupación por sus vulnerabilidades. «No existe ninguna herramienta que pueda detectar de forma fiable la escritura ChatGPT-4/Bing/Bard», tuiteó Mollick recientemente. «Las herramientas existentes están entrenadas en GPT-3.5, tienen altas tasas de falsos positivos (10%+), y son increíblemente fáciles de engañar». Además, ChatGPT por sí mismo no puede evaluar si el texto está escrito por IA o no, añadió, por lo que no se puede simplemente pegar un texto y preguntar si fue escrito por ChatGPT.
En el caso del detector de IA basado en marcas de agua, la robustez reveló que «un atacante puede utilizar un parafraseador para eliminar las firmas LLM de un texto generado por IA para evitar su detección» e incluso puede falsear el detector de marcas de agua para hacer que un texto humano auténtico se detecte como generado por IA.
En una conversación con Ars Technica, Tian de GPTZero pareció darse cuenta de lo que se avecinaba y dijo que planea redirigir su empresa lejos de la detección de IA convencional hacia algo más ambiguo. «En comparación con otros detectores, como Turn-it-in, estamos cambiando nuestra atención lejos de construir detectores para atrapar a los estudiantes, y en su lugar, la próxima versión de GPTZero no estará detectando IA, sino resaltando lo más humano y ayudando a profesores y estudiantes a navegar juntos el nivel de participación de la IA en la educación», dijo.
Sin embargo, a pesar de los problemas inherentes con la precisión, GPTZero sigue anunciándose como «construido para educadores», y su sitio muestra con orgullo una lista de universidades que supuestamente utilizan la tecnología. Existe una extraña tensión entre los objetivos declarados de Tian de no castigar a los estudiantes y su deseo de ganar dinero con su invento. Pero sean cuales sean los motivos, el uso de estos productos defectuosos puede tener efectos terribles en los estudiantes. Quizá el resultado más perjudicial del uso de estas herramientas inexactas e imperfectas sea el coste personal de las falsas acusaciones.
Un caso publicado por USA Today pone de relieve la cuestión de forma llamativa. Un estudiante fue acusado de hacer trampas basándose en herramientas de detección de texto de IA y tuvo que presentar su caso ante una junta de honor. Su defensa incluyó mostrar su historial de Google Docs para demostrar su proceso de investigación. A pesar de que el tribunal no encontró pruebas de que hubiera hecho trampas, el estrés de prepararse para defenderse llevó al estudiante a sufrir ataques de pánico. Situaciones similares se han producido docenas (si no cientos) de veces en los EE.UU. y se documentan comúnmente en hilos desesperados de Reddit.
Las sanciones habituales por deshonestidad académica suelen incluir suspensos, libertad condicional académica, suspensión o incluso expulsión, dependiendo de la gravedad y la frecuencia de la infracción. Es una acusación difícil de afrontar, y el uso de tecnología defectuosa para imponer esos cargos parece casi una caza de brujas académica moderna.
Así pues, finalmente, no existe una fórmula perfecta en la que podamos confiar para diferenciar entre texto escrito por humanos y texto generado por máquinas.