Spaces:
Running
on
Zero
Running
on
Zero
Update README.md
Browse files
README.md
CHANGED
@@ -31,7 +31,7 @@ Para el desarrollo de LeIA GO, utilizamos el modelo preentrenado **BSC-LT/salama
|
|
31 |
|
32 |
El entrenamiento y ajuste fino se realizaron usando t茅cnicas de LoRA (Low-Rank Adaptation) mediante la librer铆a `peft`, configurando un `LoraConfig` para adaptar el modelo sin necesidad de reentrenarlo completamente. La librer铆a `transformers` se us贸 para cargar el modelo y el tokenizador, mientras que `datasets` sirvi贸 para gestionar los datos de entrenamiento.
|
33 |
|
34 |
-
Los datos consistieron en **prompts creados manualmente por nuestro equipo**, dise帽ados para capturar diversidad ling眉铆stica y estructural del espa帽ol.
|
35 |
|
36 |
El proceso de entrenamiento se ejecut贸 con `DPOTrainer` y configuraci贸n `DPOConfig` de la librer铆a `trl`, optimizando el modelo para mejor desempe帽o en tareas instructivas. Adem谩s, se implement贸 optimizaci贸n con `BitsAndBytesConfig` para manejo eficiente de memoria y velocidad.
|
37 |
|
|
|
31 |
|
32 |
El entrenamiento y ajuste fino se realizaron usando t茅cnicas de LoRA (Low-Rank Adaptation) mediante la librer铆a `peft`, configurando un `LoraConfig` para adaptar el modelo sin necesidad de reentrenarlo completamente. La librer铆a `transformers` se us贸 para cargar el modelo y el tokenizador, mientras que `datasets` sirvi贸 para gestionar los datos de entrenamiento.
|
33 |
|
34 |
+
Los datos consistieron en **prompts creados manualmente por nuestro equipo**, dise帽ados para capturar diversidad ling眉铆stica y estructural del espa帽ol. Est谩n disponibles en formato csv [aqu铆] (https://huggingface.co/spaces/somosnlp-hackathon-2025/Equipo_LeIA_GO/blob/main/resolve_main_prompts.csv).
|
35 |
|
36 |
El proceso de entrenamiento se ejecut贸 con `DPOTrainer` y configuraci贸n `DPOConfig` de la librer铆a `trl`, optimizando el modelo para mejor desempe帽o en tareas instructivas. Adem谩s, se implement贸 optimizaci贸n con `BitsAndBytesConfig` para manejo eficiente de memoria y velocidad.
|
37 |
|