Se lo considera optimista de IA más inteligente de Estados Unidos. No es Sam Altman (Open IA) Satya Nadella (Microsfot) ni ninguno de los otros grandes nombres que usted asocia con la IA.

Martes 18 de Junio de 2024
Edición Nº 2099


6 12 2023

IA

Se lo considera optimista de IA más inteligente de Estados Unidos. No es Sam Altman (Open IA) Satya Nadella (Microsfot) ni ninguno de los otros grandes nombres que usted asocia con la IA.

Quizá el mayor visionario de la IA es un profesor de inglés en Illinois llamado Ted Underwood. Está convencido de que la IA nos ayudará a todos a pensar más profundamente y ayudará a los académicos a descubrir nuevas y apasionantes verdades.


Una sola página de ficción puede cubrir 1,000 años de tiempo en la historia; 1,000 páginas de historia pueden tener lugar en un instante. Eso es un poco de magia, y molesta profundamente el tipo de personas que estudian literatura. Los expertos han pasado años — décadas, incluso — tratando de medir qué tan rápido funcionan la mayoría de los relojes en la historia. Contaron tediosamente las palabras en miles de libros; laboriosamente codificaron a mano programas de computadora para medir el paso del tiempo ficticio. Sin embargo, a pesar de todos sus esfuerzos de fuerza bruta, no pudieron ponerse de acuerdo en algo tan simple como cuánto tiempo cubre la página promedio de ficción
Así que fue genial cuando, el año pasado, ChatGPT lo hizo.

Dado un mensaje bien diseñado y un pasaje de ficción, ChatGPT podría ingerir el texto y escupir una estimación rápida y precisa de cuánto tiempo había transcurrido en el pasaje. ¿Un trozo de "Jane Eyre"? Aproximadamente una semana. ¿Un pasaje de la misma longitud de "The Big Sleep"? Setenta y cinco minutos. En los últimos cientos de años, el bot calculó que el tiempo literario se ha ralentizado. La página promedio de literatura utilizada para cubrir un día entero de tiempo; ahora apenas pasa una hora.

El mensaje bien diseñado provino de Ted Underwood, profesor de inglés en la Universidad de Illinois. En un mundo lleno de Escepticismo de IA y alarmistas de chatbot, Underwood está haciendo uno de los casos más fuertes y convincentes para el valor de la inteligencia artificial. Mientras que algunos (yo entre ellos) Preocupa que la IA sea un motor de mierda fabulizante, plagiador y propagador de prejuicios que amenaza con provocar el fin de la civilización tal como la conocemos, Underwood está bastante seguro de que la inteligencia artificial nos ayudará a todos a pensar más profundamente y ayudará a los estudiosos a descubrir nuevas y emocionantes verdades sobre el gran barrido de la cultura humana. Trabajar con modelos de lenguaje grande — el software bajo el capó de un chatbot — lo ha convertido en lo más raro de las cosas en las humanidades: un optimista de IA.

Para ser claro, los chatbots no leen, y Underwood lo sabe. No tienen opiniones sobre lo bueno que es un detective Philip Marlowe. Pero un bot puede hacer todo tipo de tareas interpretativas que solían ser forraje de tesis para estudiantes de literatura con exceso de trabajo. Y a partir de esos datos, Underwood cree que finalmente podremos ver la imagen más grande — que solo se puede comprender encuestando y analizando siglos de literatura, en cientos de idiomas.

"Las cosas que legítimamente realmente no sabíamos, eso era importante, a menudo eran a mayor escala", dice Underwood. "No pudimos verlo porque era como la curva del horizonte. Necesitas distanciarte un poco." Y la mejor manera de llegar a esa distancia, cree Underwood, es entrenar un modelo digital de lenguaje en terabytes de escritura humana.

En otras palabras, usar IA.

El padre de Underwood era un informático y, cuando era niño, Underwood aprendió a codificar. ( En aquel entonces se llamaba "programación". ) Pero en la década de 1990, justo cuando las computadoras personales comenzaban a transformar el mundo, Underwood decidió — con "tiempo impecable", como él dice — ir a la escuela de posgrado en inglés. 

Como estudiante, Underwood intentó usar herramientas digitales para analizar literatura. Pero en esos días, no había bases de datos con suficientes textos para que fuera práctico. Las primeras computadoras, en esencia, no fueron tan leídas como el estudiante graduado promedio en literatura.

Entonces vino Google Libros. El esfuerzo de Google para ingerir la totalidad del material publicado en el mundo en su maw informacional insaciable puede no haber sido un gran desarrollo para las bibliotecas o escritores, pero fue supercool para los científicos de datos — y para los analistas literarios con mentalidad de datos como Underwood.

Antes de Google, el análisis de la literatura digital se parecía mucho al tipo analógico: leer, reaccionar, tal vez contar las ocurrencias de algo que estabas estudiando (lugares, pronombres, dinero, etc.). Pero ahora, con Google Books, Underwood podría crear modelos estadísticos no de pasajes o libros, sino de géneros enteros. Ciencia ficción, misterio, romance — ¿qué, en términos concretos, los hizo diferentes entre sí? Su libro "Distant Horizons" se propuso responder a esa pregunta. ¿Son libros como "Frankenstein" y "La Guerra de los Mundos" ciencia ficción, a pesar de que fueron escritos antes de que el editor Hugo Gernsback acuñara el término? Resulta que lo son. Midiendo las ocurrencias de lo sublime,cosas a gran escala como la inmensidad y el infinito —, así como cosas mundanas como pronombres humanos y grandes números — Underwood pudo decir qué fi es la ciencia más.

Poco después de que "Distant Horizons" salió en 2019, grandes modelos de idiomas como ChatGPT surgieron en la escena. Eso cambió el juego del análisis literario aún más de lo que Google Books tenía. Los LLM, en su nivel más básico, operan averiguando las probabilidades estadísticas de qué palabras tienen más probabilidades de venir después de lo cual. No "entienden" ni "saben" nada. Solo están convirtiendo palabras en números y resolviendo ecuaciones. Pero en el curso de sus cálculos masivos y sin sentido, también calculan cuán estrechamente se relacionan las palabras entre sí, en función de su contexto.

Underwood espera que la IA, con sus sofisticados modelos de lenguaje, pueda ayudarnos a descubrir nuevas ideas en nuestras propias mentes.
En lingüística, la idea de que las palabras obtienen significado del contexto se llama semántica distributiva. Ese concepto podría explicar por qué los LLM han demostrado algunas habilidades aparentemente sorprendentes, como poder decir donde y cuando tuvo lugar un montón de eventos famosos, o inferir el relaciones entre colores ( el naranja es más como el rojo que el azul, digamos ). El lenguaje codifica todo tipo de conocimiento y sabiduría cultural — y los LLM codifican el lenguaje.

Esta es una filosofía de servicio pesado. El lenguaje no es solo comunicación; Es un sustrato para el pensamiento y una ola portadora para la cultura. Y Underwood cree que los LLM están sintonizados en esa ola. Para los estudiosos, el punto de leer, de escribir, de estudiar el idioma no es solo generar un ensayo o criticar un poema, sino descubrir que pensamos y la mejor manera de expresarlo. Underwood espera que los LLM, con sus sofisticados modelos estadísticos de lenguaje, puedan ayudarnos a descubrir nuevas ideas en nuestras propias mentes. En su opinión, hacen más que simplemente fuentes de loros estocásticamente, no porque estén "pensando" — sino porque estamos allí para escucharlos. 

"No soy una de esas personas que piensa que estos modelos podrían ser un poco conscientes", dice Underwood. "Pero creo que sus declaraciones tienen significado. No quiero decir que haya una mente consciente en la máquina. Quiero decir, estoy describiendo la interacción entre la computadora y yo."

Underwood está palpablemente entusiasmado con el tipo de ideas que esta asociación IA-humana puede ofrecer en la literatura. "Vamos a poder hablar de cosas como la trama y la motivación del personaje", dice. "No solo 'cuenta las instancias en las que el dinero aparece en un texto', sino que pregunta cuál es el dinero haciendo en la trama." La IA incluso podría ser capaz de modelar algo tan inefable como lo que mantiene a las personas pasando páginas — lo que hace que una novela de Stephen King sea inagotable. Podría desempacar las estructuras mejor en generar … 

¡suspenso! La IA capacitada en modelos de idiomas grandes podrá obtener nuevas ideas sobre las partes más divertidas de las historias que nos encanta leer y contar. Tal vez eso suena como algo que solo el residente de una torre de marfil podría amar. ¿A quién le importan cosas como cuantificar el suspenso o marcar el paso del tiempo literario? Pero el punto de Underwood es que la IA puede ayudar a traer de vuelta al mundo de la crítica literaria demasiado raramente. "Nos preocupamos por estas cosas porque la gente disfruta de las historias", dice. "Y deberíamos mantener eso central en lo que estamos haciendo."

Aún así, incluso una alianza bien intencionada con nuestros señores robot es controvertida. La semántica distributiva no es la única forma de pensar sobre el lenguaje y el significado. También hay un enfoque "denotacional", que básicamente dice que las palabras significan de lo que están hablando — lo real. Y si eso es cierto, bueno, los LLM son demasiado estúpidos para vivir.

Viví en Tokio durante un semestre en la universidad y pasé una semana con una familia local. Un día, mientras estábamos conduciendo, el hijo y la hija me ofrecieron un caramelo. Pero ten cuidado, me advirtieron, porque el dulce era muy [una palabra que no sabía]. Les pedí que lo volvieran a decir, y lo que significaba, pero mi japonés no era lo suficientemente bueno como para entenderlos. 

Finalmente, acabo de comer los dulces, que resultaron ser el sabor del sabor a limón tóxico-ácido-tira-el-acabado-de-un-gabinete. Así es como aprendí, indeleblemente, que "supai" significa "agrio."

Hoy, casi 35 años después, Supai no es solo "agrio" para mí. Es "ese dulce ultralemon que comí en la parte trasera de un coche en un suburbio de Tokio." Eso es más pesado que cualquier cosa que pueda buscar en un diccionario. 

Ninguna IA puede aprender así. Por eso es difícil confiar en ellos. Los humanos aportan más al lenguaje que el mero vocabulario. "Si todo lo que tienes es la distribución de palabras, es muy plano", dice Emily M. Bender, un lingüista computacional de la Universidad de Washington que es una voz de advertencia sobre los peligros de los LLMs. "Nadie niega que la semántica distributiva sea una cosa, que palabras con significados similares aparecen en contextos similares. Es el siguiente paso — para 'por lo tanto, esta cosa tiene un modelo del mundo' — que se vuelve problemático."

La clave es lo que es en realidad en los datos de entrenamiento — el "grande" en el modelo de idioma. Si los investigadores solo están usando un bot como ChatGPT para sacar conclusiones sobre "Anna Karenina" o "Things Fall Apart", ese es un gran problema. Porque las compañías detrás de esos bots mantienen sus datos mayormente secreto, lo que hace que cualquier investigación basada en ellos sea sospechosa. ¿De qué textos aprendieron los bots? ¿Qué suposiciones culturales alimentan su análisis? ¿Cuáles son sus puntos ciegos? Los investigadores no tienen forma de saberlo.

Pero si los investigadores entrenan a un chatbot en los textos particulares que les interesan — si curan bien la dieta del bot, entonces es posible que tenga una herramienta académica. Underwood dice que las universidades y los académicos deberían reunir recursos para crear sus propios modelos lingüísticos grandes, construidos a partir de materiales específicos para sus necesidades de investigación. Un nuevo LLM, MonadGPT, fue entrenado en 11,000 textos del 17mo siglo o antes. Teóricamente, puede proponer una mentalidad del siglo 17 de una manera que ningún humano vivo podría.

"Creo que es realmente crítico que entrenemos modelos de lenguaje que sean capaces de modelar múltiples perspectivas", dice Underwood. "Si estos se utilizan en la educación, absolutamente no queremos que los estudiantes salgan con la opinión de que hay una sabiduría recibida sobre el mundo."

Hay muchas maneras en que un enfoque como el de Underwood podría salir terriblemente mal. Si se puede capacitar a un LLM en textos del siglo XVII, se puede capacitar fácilmente en foros de QAnon o en un conjunto de datos que presupone la superioridad de una religión o sistema político. Use una máquina de burbujas profundamente sesgada como esa para tratar de entender un libro, una película, o los registros médicos de alguien y los resultados estarán inherentemente sesgados contra lo que sea — o quien sea que — quede fuera del material de capacitación.

Pero ese peligro es precisamente por qué Underwood cree que necesitamos aprender a usar la IA para explorar cuestiones más profundas de cultura y conocimiento. Dejados a los dispositivos de Silicon Valley y las empresas estadounidenses, los LLM inevitablemente tenderán al secreto comercial. Pero en las humanidades, sus prejuicios serán visibles, y tal vez incluso útiles.

"La próxima etapa de impulsar estas cosas hacia adelante implicará elecciones de un tipo que consideramos que pertenece a las humanidades", dice Underwood. "Si las humanidades no quieren dejarse en el polvo, tenemos que estar sentados en esa mesa, hablando de formas alternativas para esta tecnología. Nada en contra de Google y Microsoft, pero no deben determinar completamente cómo pensamos y escribimos." Para un optimista de IA como Underwood, no es la IA la que debemos desconfiar. 

Newsletter

Suscribite a nuestro NewsLetter y recibí todas las noticias en tu mail

Notas destacadas