File size: 12,054 Bytes
f68f560 b047b6e 488713a f68f560 488713a 88f4b7e 488713a 2a39e3b 05b0661 f68f560 b047b6e f68f560 488713a 6769926 b047b6e f68f560 488713a 6769926 488713a 6769926 488713a 6769926 488713a 6769926 488713a f68f560 6769926 f68f560 6769926 f68f560 6769926 f68f560 6769926 f68f560 6769926 53d7ec0 488713a f68f560 6769926 488713a 6769926 53d7ec0 488713a 6769926 488713a 6769926 f68f560 488713a 6769926 488713a 53d7ec0 488713a 53d7ec0 488713a 8bb50ea 488713a f68f560 488713a f68f560 488713a 53d7ec0 488713a f68f560 6769926 488713a 6769926 488713a 6769926 0e64102 488713a 6769926 488713a 53d7ec0 488713a 6769926 488713a 53d7ec0 488713a 53d7ec0 488713a 6769926 488713a 6769926 488713a 6769926 53d7ec0 488713a b047b6e f68f560 6769926 488713a f68f560 6769926 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 |
import os
import gradio as gr
from gradio import ChatMessage
import torch
import torch._dynamo
from transformers import AutoModelForCausalLM, AutoTokenizer
from huggingface_hub import hf_hub_download
import re
from llama_cpp import Llama
from typing import Iterator
import spaces
# Desactivar TorchDynamo para evitar errores de compilación
torch._dynamo.config.suppress_errors = True
torch._dynamo.disable()
# Configuración
MODEL_ID = "somosnlp-hackathon-2025/iberotales-gemma-3-1b-it-es"
GGUF_MODEL_ID = "somosnlp-hackathon-2025/iberotales-gemma-3-1b-it-es-finetune-gguf"
GGUF_FILENAME = "gemma-3-finetune.Q8_0.gguf"
GGUF_REVISION = "main"
MAX_MAX_NEW_TOKENS = 2048
DEFAULT_MAX_NEW_TOKENS = 1024
# System prompt personalizado
DEFAULT_SYSTEM_MESSAGE = """Resuelve el siguiente problema.
Primero, piensa en voz alta qué debes hacer, paso por paso y de forma resumida, entre <think> y </think>.
Luego, da la respuesta final entre <SOLUTION> y </SOLUTION>.
No escribas nada fuera de ese formato."""
# Base de datos de personajes por país con banderas
PERSONAJES_POR_PAIS = {
"🇦🇷 Argentina": [
{"nombre": "La Difunta Correa", "imagen": "images/ar1.jpg", "descripcion": "Santa popular que murió de sed siguiendo a su esposo reclutado"},
{"nombre": "El Lobizón", "imagen": "images/ar2.jpg", "descripcion": "Hombre lobo de la tradición gaucha, séptimo hijo varón maldito"}
],
"🇧🇴 Bolivia": [
{"nombre": "El Tío del Cerro Rico", "imagen": "images/bo1.webp", "descripcion": "Señor de las minas que protege y castiga a los mineros"},
{"nombre": "El Ekeko", "imagen": "images/bo2.jpg", "descripcion": "Dios aymara de la abundancia y la fortuna con jorobas"}
],
"🇵🇾 Paraguay": [
{"nombre": "Kurupi", "imagen": "images/py1.jpg", "descripcion": "Dios guaraní de la fertilidad con poderes sobrenaturales"},
{"nombre": "Pombero", "imagen": "images/py2.jpg", "descripcion": "Duende protector de los animales y la naturaleza"}
]
}
# Variables globales
model = None
tokenizer = None
current_personajes = []
# CSS personalizado
custom_css = """
.gradio-container {
max-width: 1400px !important;
margin: auto;
padding-top: 1.5rem;
}
#galeria .grid-wrap {
max-height: 350px;
overflow-y: auto;
}
#galeria .grid-container {
grid-template-columns: repeat(1, 1fr) !important;
gap: 0.5rem;
}
#galeria .thumbnail-item {
aspect-ratio: 1;
max-height: 100px;
}
#galeria .thumbnail-item img {
object-fit: cover;
width: 100%;
height: 100%;
border-radius: 8px;
}
.header-info {
background: linear-gradient(135deg, #2c3e50 0%, #1a1a2e 100%);
color: white;
padding: 1rem;
border-radius: 12px;
margin-bottom: 1rem;
text-align: center;
}
"""
def load_model():
"""Cargar modelo GGUF"""
global model, tokenizer
try:
# Descargar modelo GGUF
print("Descargando modelo GGUF...")
model_path = hf_hub_download(
repo_id=GGUF_MODEL_ID,
filename=GGUF_FILENAME,
revision=GGUF_REVISION,
local_dir="./models",
)
print(f"Modelo descargado en: {model_path}")
# Cargar modelo GGUF
model = Llama(
model_path=model_path,
n_ctx=2048,
n_batch=512,
n_threads=4,
n_gpu_layers=0,
chat_format="gemma"
)
# Cargar tokenizer
tokenizer = AutoTokenizer.from_pretrained("google/gemma-2-2b-it")
print("Modelo cargado exitosamente")
return True
except Exception as e:
print(f"Error al cargar modelo: {e}")
return False
def generate_response(
user_message: str,
system_message: str = DEFAULT_SYSTEM_MESSAGE,
max_new_tokens: int = DEFAULT_MAX_NEW_TOKENS,
temperature: float = 0.7,
top_p: float = 0.95,
):
"""Genera respuesta usando el modelo GGUF"""
global model
if model is None:
return "Error: Modelo no disponible."
try:
# Crear mensajes
messages = [
{"role": "system", "content": system_message},
{"role": "user", "content": user_message}
]
# Generar respuesta
response = model.create_chat_completion(
messages=messages,
max_tokens=max_new_tokens,
temperature=temperature,
top_p=top_p,
stream=False
)
full_response = response['choices'][0]['message']['content']
# Procesar respuesta con formato
thinking_part = ""
solution_part = ""
# Extraer pensamiento
think_match = re.search(r'<think>(.*?)</think>', full_response, re.DOTALL)
if think_match:
thinking_part = think_match.group(1).strip()
# Extraer solución
solution_match = re.search(r'<SOLUTION>(.*?)</SOLUTION>', full_response, re.DOTALL)
if solution_match:
solution_part = solution_match.group(1).strip()
# Construir respuesta formateada
messages = []
if thinking_part:
messages.append(ChatMessage(
role="assistant",
content=thinking_part,
metadata={"title": "🤔 Pensando..."}
))
if solution_part:
messages.append(ChatMessage(
role="assistant",
content=solution_part
))
elif not thinking_part:
# Si no hay formato específico, usar respuesta completa
clean_response = re.sub(r'<think>.*?</think>', '', full_response, flags=re.DOTALL)
clean_response = re.sub(r'<SOLUTION>(.*?)</SOLUTION>', r'\1', clean_response, flags=re.DOTALL)
messages.append(ChatMessage(
role="assistant",
content=clean_response.strip()
))
return messages
except Exception as e:
return [ChatMessage(role="assistant", content=f"Error: {str(e)}")]
def actualizar_personajes(pais_seleccionado):
"""Actualiza la galería de personajes según el país seleccionado"""
global current_personajes
personajes = PERSONAJES_POR_PAIS.get(pais_seleccionado, [])
current_personajes = personajes
if not personajes:
return [], "Selecciona un país para ver sus personajes"
# Crear lista de imágenes para la galería
imagenes = []
for p in personajes:
if os.path.exists(p["imagen"]):
imagenes.append(p["imagen"])
else:
# Imagen placeholder si no existe
imagenes.append("https://via.placeholder.com/100x100.png?text=No+Image")
return imagenes, f"Personajes de {pais_seleccionado}"
def crear_prompt_desde_personaje(evt: gr.SelectData):
"""Crea un prompt basado en el personaje seleccionado"""
global current_personajes
try:
if evt.index is not None and evt.index < len(current_personajes):
personaje = current_personajes[evt.index]
return f"Crea una historia sobre {personaje['nombre']}, {personaje['descripcion']}"
else:
return "Crea una historia sobre un personaje mítico"
except Exception as e:
print(f"Error al crear prompt: {e}")
return "Crea una historia sobre un personaje mítico"
def chat_function(message, history, max_tokens, temperature):
"""Función principal del chat"""
if not message.strip():
return history, ""
# Agregar mensaje del usuario al historial
history = history + [ChatMessage(role="user", content=message)]
# Generar respuesta
response_messages = generate_response(message, DEFAULT_SYSTEM_MESSAGE, max_tokens, temperature)
# Agregar respuestas al historial
for msg in response_messages:
history = history + [msg]
return history, ""
# Cargar modelo al inicio
print("Iniciando carga del modelo...")
model_loaded = load_model()
# Crear la interfaz con componentes renderizables
with gr.Blocks(title="Iberotales", css=custom_css) as demo:
# Header con información del proyecto
gr.HTML("""
<div class="header-info">
<h1>📚 Iberotales</h1>
<p><strong>Autor:</strong> David Quispe | <a href="https://github.com/mcdaqc/Iberotales" target="_blank" style="text-decoration: none;">GitHub</a> | <a href="https://huggingface.co/somosnlp-hackathon-2025/iberotales-gemma-3-1b-it-es" target="_blank" style="text-decoration: none;">Modelo</a> | <a href="https://huggingface.co/somosnlp-hackathon-2025/iberotales-gemma-3-1b-it-es-finetune-gguf" target="_blank" style="text-decoration: none;">GGUF</a></p>
<p><em>Alineando modelos de lenguaje con la narrativa de mitos y leyendas de Iberoamérica.</em></p>
<p><em>Hackathon SomosNLP 2025</em></p>
</div>
""")
with gr.Row():
# Panel izquierdo - Pokédex de personajes
with gr.Column(scale=1, min_width=320):
gr.Markdown("### 🗃️ Pokédex de Personajes")
pais_dropdown = gr.Dropdown(
choices=list(PERSONAJES_POR_PAIS.keys()),
value="🇵🇾 Paraguay",
label="País",
container=False
)
galeria_personajes = gr.Gallery(
value=[],
label="Personajes",
show_label=False,
elem_id="galeria",
columns=1,
rows=4,
height=350
)
# Panel derecho - Chat
with gr.Column(scale=2):
chatbot = gr.Chatbot(
type="messages",
show_label=False,
height=400,
avatar_images=(None, "🏛️"),
value=[]
)
with gr.Row():
input_box = gr.Textbox(
placeholder="Escribe tu historia o selecciona un personaje...",
show_label=False,
scale=4,
container=False
)
send_button = gr.Button("📤", scale=1, variant="primary")
with gr.Row():
clear_button = gr.Button("🗑️ Limpiar", scale=1, size="sm")
with gr.Column(scale=3):
with gr.Row():
max_tokens = gr.Slider(100, MAX_MAX_NEW_TOKENS, DEFAULT_MAX_NEW_TOKENS, label="Tokens", container=False)
temperature = gr.Slider(0.1, 2.0, 0.7, label="Temp", container=False)
# Eventos
# Actualizar personajes cuando cambia el país
pais_dropdown.change(
fn=actualizar_personajes,
inputs=[pais_dropdown],
outputs=[galeria_personajes]
)
# Cargar personajes iniciales
demo.load(
fn=actualizar_personajes,
inputs=[pais_dropdown],
outputs=[galeria_personajes]
)
# Crear prompt desde galería
galeria_personajes.select(
fn=crear_prompt_desde_personaje,
outputs=[input_box]
)
# Envío de mensajes
input_box.submit(
fn=chat_function,
inputs=[input_box, chatbot, max_tokens, temperature],
outputs=[chatbot, input_box]
)
send_button.click(
fn=chat_function,
inputs=[input_box, chatbot, max_tokens, temperature],
outputs=[chatbot, input_box]
)
clear_button.click(
fn=lambda: ([], ""),
outputs=[chatbot, input_box],
queue=False
)
# Lanzar aplicación
if __name__ == "__main__":
if model_loaded:
print("Lanzando aplicación...")
demo.launch(share=False, show_error=True)
else:
print("Error: No se pudo cargar el modelo. Revisa la configuración.") |