Rogue Scholar Posts

language
Published in Lucidarios

Terminé la última entrada describiendo el inusual comportamiento al entrenar dos modelos de transcripción en PyLaia, 7P y Lucidario B : Cuando las tasas de error en los sets de entrenamiento y de validación de un modelo HTR son demasiado altas, el modelo puede volverse a entrenar —que no es lo mismo que re-entrenarlo , algo que desaconsejo— para lograr nuevas iteraciones (versiones) que corrijan el problema.

Published in Lucidarios

Ha pasado casi un año desde mi última entrada sobre Transkribus y varias cosas han cambiado. Poco después de la última entrada, en marzo de 2023, la mejor y más eficiente máquina de HTR de Transkribus, CITLab+ (de la que hablo en estas entradas), fue retirada por una disputa de propiedad intelectual sobre el código de la máquina.

Published in Lucidarios

Retomo el hilo de Transkribus para discutir algunas cuestiones que surgen tras la transcripción. En la última entrada teníamos un modelo entrenado (y re-entrenado) y listo para ser utilizado en la transcripción automatizada del testimonio D del Lucidario . No hay más que hacer que decirle a Transkribus: ahora transcríbelo todo.

Published in Lucidarios

En la entrada anterior hablé sobre los errores por alteración del orden. En esta entrada me dedicaré a los errores por sustitución. A diferencia de los errores por adición, omisión y alteración del orden, los errores de sustitución afectan palabras enteras.

Published in Lucidarios

En la entrada anterior expliqué los contenidos de la ventana de resumen del entrenamiento y la importancia de los valores de los CER de entrenamiento y de validación. En la primera versión del modelo, Lucid D 0.1, utilicé 3374 líneas de texto (o 50 páginas), logrando un CER de entrenamiento de 1.15% y un CER de validación de 2.97%. Este es el paso final del entrenamiento en Transkribus.

Published in Lucidarios

Al final de la entrada anterior habíamos recibido un correo de confirmación sobre la finalización exitosa del entrenamiento de un modelo de transcripción de letra manuscrita. Como dije entonces, el correo contiene un corto resumen y los datos más relevantes del nuevo modelo: los porcentajes de error de caracteres o CER ( character error rate ) en el set de entrenamiento y en el set de validación.

Published in Lucidarios

En la entrada anterior escribí sobre cómo comenzar un entrenamiento de un modelo CITLab HTR+ en Transkribus. Continúo aquí con el proceso. Lo último que había hecho era seleccionar el set de entrenamiento ( training set ) y el set de validación ( validation set ). Como dije entonces, este último set permite a la máquina evaluar la precisión del aprendizaje en el modelo que está desarrollado.

Published in Lucidarios

Tras tres entradas de presentación sobre el trabajo con Transkribus –que en realidad son los sucesivos párrafos de introducción que me vi forzado a ampliar para darle un poco de sentido al trabajo que viene a continuación–, llego finalmente al punto más importante del trabajo con Transkribus: la creación y entrenamiento de un modelo de transcripción.

Published in Lucidarios

Finalmente llegamos al momento en el que toca hablar sobre cómo realizar una transcripción automatizada. En esta entrada comienzo a describir el trabajo para el desarrollo de un modelo de transcripción para el testimonio D del Lucidario , el códice de Puñonrostro.