"Lo siento, como modelo de lenguaje…" es una muletilla habitual con las que ChatGPT inicia sus respuestas cuando le pedimos que haga algo que no tiene capacidad de hacer, ya sea por limitaciones técnicas (por ejemplo, cuando se le pide que acceda a contenidos online desde la versión gratuita) o por las políticas de contenido impuestas por OpenAI.
Al mismo tiempo, como muletilla que es, también constituye a estas alturas una 'firma' característica de ChatGPT… y, cuando lo encontramos en algún texto fuera de la plataforma, en una prueba inequívoca e irrefutable de descuidado 'copia y pega'. Algo parecido —para los que aún recuerdan qué era la Wikipedia— a encontrarnos, sin venir a cuento, con la frase "Para otros usos de este término, véase…" al comienzo de un texto.
Hace cuatro meses, la publicación estadounidense The Verge se hacía eco de cómo la frase de marras de ChatGPT (en su versión en inglés) demostraba cómo la inteligencia artificial estaba "contaminando la web […] generando spam, reseñas falsas y otras formas de texto de baja calidad".
En ese momento, ya existían ejemplos de eso en las reseñas de Amazon, y buscar la frase en Twitter arrojaba gran cantidad de respuestas de bots poco afinados… y una creciente cantidad de tuits de que se tomaba la frase ya como un meme.
Sin embargo, muchos no vieron venir que, además de publicaciones breves en redes sociales, 'As an AI language model' —y otros textos resultantes de copiar directamente de ChatGPT, como 'Regenerate response'— acabaría contaminando también el sistema de publicaciones científicas revisadas por pares, un supuesto pilar fundamental de nuestro sistema científico.
Así no vais a ganar el Nobel. O sí, vaya
La liebre la ha levantado Andrew Kean Gao, un estudiante de ciencias de la computación de Stanford, después de que la curiosidad le llevase a buscar la frase en cuestión en Google Scholar, el buscador de 'papers' científicos de Google (excluyendo referencias explícitas a ChatGPT, para asegurarse de que no fuera éste el tema del paper).
El resultado ha sido sorprendente: ya existen papers, 'revisados' y publicados, que incluyen la frase en un contexto que sólo se puede explicar por la inclusión descuidada de texto copiado de una respuesta de ChatGPT.
Ejemplo del tipo de artículos que han protagonizado esta pillada:
Y otro:
Y aquí otro más:
Y si en lugar de Google Scholar utilizamos otros servicios como PubPeer, nos encontramos con otros cuantos artículos más.
Como dice un usuario en Twitter:
"Lo siento, pero si una revista publica un artículo con esa afirmación escrita tal cual, voy a instar a mi uni a que deje de suscribirse a la misma y a que nunca publique ningún artículo allí. No tengo nada en contra de AI, pero me hace dudar de si el editor está haciendo su debida diligencia".
Y es que hay algo muy roto en el modelo de publicaciones científicas internacional si el "Journal of Internet Banking and Commerce" acepta como 'paper' un documento de sólo una página de texto útil, que comienza con "As an AI language model, I can…", pero que especifica detalladamente cuándo se 'revisó' el documento:
Siempre podemos decirle a los que no logren trabajo en otros sectores usando esta técnica que se dediquen a ser revisores académicos. Lo decimos por esto:
"Tío, que los solicitantes [de empleo] están directamente pidiendo a ChatGPT respuestas a estas preguntas, copiando/pegando sin siquiera revisarlas, y realmente piensan que van a terminar consiguiendo el trabajo. 'Como un modelo de lenguaje de IA', me parto".
Imagen | Marcos Merino mediante IA
En Genbeta | El truco definitivo para copiar y pegar texto de un PDF a MS Word sin destrozar el texto
Ver 2 comentarios