
Una IA entrenada con textos victorianos
Aunque solemos pensar que las inteligencias artificiales sirven como asistentes universales, lo cierto es que su comportamiento depende en gran parte de los datos con los que se entrenan. Ese fue el descubrimiento de Hayk Grigorian, estudiante de ciencias computacionales en el Muhlenberg College de Pennsylvania, que decidió crear una IA con el estilo de la Inglaterra victoriana. Historical LLM
Para lograrlo, recopiló 7.000 textos publicados entre 1800 y 1875, y diseñó un tokenizador que eliminaba cualquier vocabulario moderno. Con ello entrenó tres modelos distintos (dos con nanoGPT y otro con Phi 1.5), logrando una IA que no solo imitaba la gramática y los giros de época, sino que también hacía constantes referencias a personajes y hechos del siglo XIX.
La prueba: un prompt de 1834
En Reddit, Grigorian relató el momento en que probó su modelo con la frase: “Era el año de nuestro señor 1834”.
La respuesta fue sorprendente: la IA no solo comenzó a redactar como un cronista victoriano, sino que mencionó una protesta ocurrida en Londres ese mismo año y al político Lord Palmerston, relacionando además los hechos con pasajes bíblicos, algo habitual en los escritos de esa época.
Intrigado, el estudiante investigó las referencias. Descubrió que efectivamente en 1834 hubo una gran protesta en Londres, relacionada con la Ley de Pobreza, que limitaba los derechos de subsistencia de los pobres. El propio Palmerston, por entonces Secretario de Exteriores, estaba implicado en la gestión política de la crisis.
En palabras de Grigorian: “Pensé que era una coincidencia, pero al comprobarlo vi que todo encajaba. No solo imitaba textos antiguos, también podía evocar sucesos históricos reales”.
Más allá de la imitación: nace el “Historical LLM”
El caso de Grigorian ha llamado la atención en la comunidad tecnológica. Según Ars Technica, este tipo de experimentos se conocen como HLLM (Historical Large Language Models), modelos de lenguaje históricos diseñados para recrear estilos, pero que a veces terminan recordando episodios reales de las fuentes usadas.
Ya existen otros ejemplos:
- MonadGPT, entrenado con textos de 1400 a 1700.
- XunziALLM, especializado en poesía clásica china según normas tradicionales.
Una máquina del tiempo digital
El experimento muestra que con apenas 5-6 GB de datos históricos una IA puede reconstruir no solo la forma de escribir de una época, sino también sus acontecimientos clave.
Grigorian se preguntaba qué pasaría con un entrenamiento diez veces mayor: “Imagine los resultados con 30 GB o más”.
Más allá de lo anecdótico, lo cierto es que los HLLM abren la puerta a nuevas formas de aprender historia: no solo leyendo manuales, sino interactuando con inteligencias artificiales que hablan, piensan y hasta “recuerdan” como si fueran de otra época.