METALITERATURA

Beca Creación 2021. Fondo Nacional de las Artes 2021.



GPT, autor del Pierre Menard, autor del Quijote

10/24/2023 Desde Berlín

En el año de los Grandes Modelos de Lenguaje (LLM) y de las “inteligencias artificiales que charlan” han ido apareciendo muchas preguntas inquietantes: ¿tomarán las IA nuestros trabajos?; ¿cuáles son los diez trabajos que desaparecerán gracias a chat-gpt?; ¿vinieron las IA a conquistar el mundo y desplazar al humano?; ¿estamos cerca de la singularidad?

Por:   Milanese Julia
 

Hay una pregunta entre estas que me inquieta o me interesa más que las otras: ¿qué será de la literatura?, o incluso, ¿qué será del autor?

 

Una tarea en la que estos modelo de lenguaje entrenados en generar texto a partir de una instrucción han sobresalido, especialmente en inglés, es la de generar texto “al estilo de”. Este ejercicio no es nuevo. Hace algunos años ya existía una página web que creaba discursos presidenciales a la manera de distintos presidentes de Estados Unidos con resultados al menos divertidos. Pero la diferencia con los modelos actuales es que aquellos estaban entrenados únicamente con los textos de los que se esperaba copiar el estilo. Los modelos actuales consiguen resultados similares a pesar de haber sido entrenados con cientos de miles de textos diversos.

 

Hoy en día, podemos pedirle a chat-gpt que escriba una tarjeta de cumpleaños al estilo de Gabriel García Marquez, por ejemplo, o cualquier otra tarea igual de inútil, y el modelo completará el pedido sin dudas, sin investigación previa y sin más límites que los que se le imponen por cuestiones de memoria. Simplemente plasmará una detrás de otra las palabras que, si el ejercicio es exitoso, nos van a hacer rememorar la prosa del autor [1].

 

Todavía estos resultados están lejos del temor que ya generan los “deep fake” de modelos de imágenes o el uso de “IA” para reemplazar a actores extras por animaciones automáticas entrenadas en videos anteriores de esas mismas personas.

 

El temor no es tal en este caso porque la literatura, hasta ahora, ha tenido un camino claro en la asignación de derechos y autoría[2]. Que una pequeña muestra de lectores esté dispuesta a creer que cualquier poema mal escrito puede ser un poema inédito de Borges habla más de las formas de circulación de los textos en redes sociales que del riesgo que corre la obra de Borges de verse engordada por error o malicia. Y esa obra está “a salvo” porque existen leyes que protegen las propiedades intelectuales, estudios sobre las obras, ediciones completas, etc.

 

Pero sí es cierto que esta forma de circulación de textos es una realidad en internet y existe un masa de textos que circulan, como las ficciones eróticas de la Scaloneta y otras historias por capítulos de Wattpad, que no se ajustan a los caminos más tradicionales de edición de obras. Es común hoy ver a alguien enojado porque le robaron un hilo de Twitter de su autoría y lo publicaron en un diario de circulación oficial sin siquiera hacerle una mención y toda la defensa de esa propiedad consiste en denunciar el hecho en otro hilo de Twitter.

 

Lo que quiero decir es que cada vez más la producción de textos, guiones, historias e ideas para ser narradas podrán muy bien caer en manos de una IA – y con IA me refiero a modelos generativos – sin que para el consumidor final el resultado cambie demasiado. Pienso en algunas novelas “de verano”, esas que tienen una anécdota, a veces algunos datos históricos, y una o dos técnicas literarias; esas son tal vez las primeras narraciones cuya autoría podrá ser reemplazada por una IA. Así también ciertos guiones de Netflix u otra de esas plataformas que tienen como exigencia producir continuamente nuevo contenido.

 

Ese concepto precisamente – contenido –, en el sentido en que se usa cuando alguien dice que “produce contenido en redes” tiene manifestaciones que seguramente serán más fácilmente reemplazables por una IA a la que se le pase la instrucción correcta.

 

***

Entonces, ¿existe realmente algo como un temor a que la IA reemplace a les autores?

 

Foucault – y acá escribo yo misma como un modelo generativo: con lo que estudié, pero sin consultar ningún texto, solo usando la amalgama mental de las cosas que alguna vez leí – recuerda en “¿Qué es un autor?” que Beckett dice “¿Qué importa quién habla?”.

 

Si algo está claro, es que no hay nadie (ni nada) fuera del texto que genera un modelo de lenguaje.

 

Los textos literarios, si resultara que pudiéramos llamarlos así, producidos por un modelo generativo serían la máxima representación de lo que Foucault llama, en “¿Qué es un autor?”, literatura moderna: no hay nada por fuera del texto, no hay nada anterior ni posterior al texto, no hay intención en el texto.

 

Dada una instrucción (“Escriba un cuento al estilo de Silvina Ocampo”), la IA comienza a generar texto, coherente, cohesivo y, en el mejor de los casos, que imita el estilo pedido. Y sólo va a detener la generación por falta de memoria o por un límite de caracteres. Antes de comenzar y una vez detenida la generación, lo que hay fuera de ese texto no es más que un modelo en reposo.

 

Ese modelo en reposo es, de alguna manera, todos los textos con los que el modelo fue entrenado (¿y no es eso también cualquier texto literario?) y nada por fuera de ellos. El modelo en reposo es una latente modelación de una o múltiples lenguas, pero únicamente de esas lenguas según fueron usadas en un momento temporal en lugares accesibles por internet[3]. Pero en sí mismo, ese modelo no tiene ni siquiera palabras de una lengua, sino la representación numérica de ellas. O más bien, ni siquiera de ellas; porque las unidades representadas por números en el modelo no son necesariamente palabras enteras, sino unidades mínimas que ninguna corriente lingüística considera como unidades de lenguaje[4]. No son ni letras, ni sílabas ni morfemas, son “tokens”.

 

“Lloro como una Magdalena cuando pienso en la Artemia, que era la sabiduría en persona cuando charlábamos.”, empieza un cuento Silvina Ocampo. Para GPT las unidades que componen esa oración incluyen la “L”, la palabra “persona” y las unidades “Art”, “ía” y “char” que son algunos de los más de cien mil “tokens” que sirvieron para segmentar los textos sobre los que el modelo fue entrenado, y que también incluyen “_rw” y “等”.

 

Pienso en muchas formas de segmentar esa oración según distintas corrientes de análisis del texto, ninguna incluye esa segmentación que, por donde se la mire, parece arbitraria y desprovista de significado. Y sin embargo, al pedirle al modelo que continúe generando texto a partir de esa oración, me devuelve algo perfectamente legible:

 

Lloro como una Magdalena cuando pienso en la Artemia, que era la sabiduría en persona cuando charlábamos. En mi corazón guardo el cariño que ella me enseñaba con esa sonrisa especial.

 

Si alguien me pregunta quién era ella, les diré que fue una mujer llena de amor, de luz y de sabiduría. Era una voz de la esperanza que me enseñó a creer en mí mismo[5] y que jamás dejará de brillar en mi corazón.

 

Cada vez que miro a las estrellas, pienso en la Artemia, y siento su amor fluyendo a través de mí. Su voz me da fuerzas para seguir adelante sin perder la esperanza.

 

Cuando la echo de menos no hay nada que me consuele más que abrazar a quienes la amaban como yo, recordar sus palabras llenas de sabiduría y escuchar sus risas de felicidad.

 

 La Artemia se ha ido sin dejar de brillar en mi vida[6]

 

No tiene mucho sentido acá preguntarme qué hace que Silvina Ocampo[7] sea Silvina Ocampo, la autora, pero sí me pregunto en qué consistiría pedirle a un modelo de lenguaje que escriba como Silvina Ocampo. ¿Cuál sería el modo más fidedigno de lograr que una AI escribiera un cuento de Silivina Ocampo que de forma efectiva se pareciera a un fragmento de la autora.

 

¿Podría ser que le dieramos de leer (entrenar) todos los textos de la autora y le pidieramos al modelo entrenado en estos datos que escribiera un cuento, una nouvelle, una poesía, al estilo de la autora?

 

¿O sería, tal vez, más fidedigno alimentar al modelo con todos los textos que leyó alguna vez SO y pedirle luego que escribiera un cuento y esperar que ese cuento fuera uno de los cuentos de Silvina Ocampo que ya conocemos? ¿Sumaríamos sus textos anteriores o no?

 

***

 

Un modelo generativo de lenguaje con el que podemos interactuar no es más que lo que escribe, “es” produciendo texto, escribiendo. Es un modelo en reposo que solo funciona cuando escribe. No habla, no piensa, solo escribe. De hecho, ni siquiera escribe del modo en que lo hacemos los humanos, sino que predice números, imprime en pantalla, uno detrás de otro, los tokens que son representados por esos números; y somos los humanos los que leemos los números en su vestidura de letras.

 

Queda todavía la intención del autor de la instrucción. De aquel que despierta al modelo dormido, lo limita, lo encamina y lo pone a escribir. Porque para comenzar a generar, muchos modelos necesitan de un texto inicial al que continuar; lo que se conoce como instrucción, o “prompt” en inglés.

 

Si pusiéramos a un primer modelo a generar estos prompts para que otro modelo escribiese cuentos, ¿se desdibujaría la intención humana deetrás? Y si repitiéramos el proceso con varios modelos uno detrás del otro ¿qué rasgo de intención quedaría en el proceso?[8]

 

***

 

Por otro lado, si alcanzamos la singularidad tecnológica y entre sus subproductos se encontrase escribir literatura, por supuesto que querríamos leer lo que produce como “autora” de estos textos. Pero ¿entenderíamos lo que escribe?[9]

 

Especulo que acaso no, porque hay, finalmente, un rasgo de la escritura que a través del tiempo parece ineludible, que es su relación con la muerte. La relación de la literatura con la pasión del hombre por escapar a la muerte[10].

 

Pienso en los libros verdes de “Vida y Obra de” que había en mi casa. ¿Cómo sería el tomo dedicado a text-davinci-003? La IA es un autor sin excedente, únicamente Obra, nada de vida, nada de muerte.

 

Tal vez la única diferencia ineludible entre una IA y nuestra vieja literatura: su nula relación con la muerte. Quizás hoy no importa quién escribe pero sí quénsubj escribeROOT [11].

 


[1] Hice la prueba y el resultado es un resumen espantoso de lugares comunes que puede incluir la mención directa a Macondo.

[2] La huelga de actores y guionistas de Hollywood busca una solución a los problemas de derechos de autor e imagen que empiezan a aparecer asociados a estos modelos generativos.

[3] Esto puede incluir versiones de la Biblia, de Hamlet o de la Divina Comedia y excluir textos modernos que no hubieran sido subidos a internet.

[4] Hasta lo que sé en este momento, sin investigar en profundidad.

[5] El narrador en masculino es una marca fuerte de la generación. Tan lejos de las narradoras mayormente femeninas de Silvina Ocampo

[6] Silvina siguió ese cuento de un modo levemente distinto:

 

“Lloro como una Magdalena cuando pienso en la Artemia, que era la sabiduría en persona cuando charlábamos. Podía ser buenísima, pero hay bondades que matan, como decía mi tía Lucy.”

 

Tan Silvina que duele.

 

[7] Voy a seguir con Silvina Ocampo como ejemplo sólo porque alguna vez supe un poco sobre sus cuentos.

[8] “¿Qué Dios detrás de Dios la trama empieza?”, tal vez todo lo que quiero decir ya lo dijo Borges y este es un ejercicio repetitivo

[9] Esta pregunta queda para otro día.

[10] Foucault habla, de nuevo en “¿Qué es un autor?” de Sherezade narrando historias por eludir, al menos un día más, a la muerte.

[11] Imitando el parser de dependencias de Spacy.

 


 

www.metaliteratura.com.ar

Literatura latinoamericana