Spaces:
Sleeping
Sleeping
File size: 1,574 Bytes
5822624 ee62733 5822624 ee62733 5822624 ee62733 5822624 ee62733 5822624 94ca4fb 5822624 ee62733 5822624 ee62733 5822624 ee62733 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 |
import gradio as gr
from transformers import T5Tokenizer, T5ForConditionalGeneration
import torch
# Limitar el uso de CPU para servidores lentos
torch.set_num_threads(1)
torch.set_num_interop_threads(1)
# Cargar modelo
tokenizer = T5Tokenizer.from_pretrained("cssupport/t5-small-awesome-text-to-sql")
model = T5ForConditionalGeneration.from_pretrained("cssupport/t5-small-awesome-text-to-sql")
# Esquema de base de datos simplificado
SCHEMA = """
Database schema:
Table bodegas(Id, Nombre, Encargado, Telefono, Email, Direccion, Horario, Regional, Latitud, Longitud)
Table maestra(CodigoSap, Descripcion, Grupo, Agrupador, Marca, Parte, Operacion, Componente)
"""
# Función principal
def generar_sql(pregunta_espanol):
try:
# Crear prompt claro y directo
prompt = f"Esquema de base de datos:\n{SCHEMA}\nPregunta en español: {pregunta_espanol}\nGenera la consulta SQL correspondiente."
# Generar la consulta SQL
input_ids = tokenizer(prompt, return_tensors="pt").input_ids
output = model.generate(input_ids, max_length=128)
sql = tokenizer.decode(output[0], skip_special_tokens=True)
return sql
except Exception as e:
return f"Error: {str(e)}"
# Interfaz Gradio
iface = gr.Interface(
fn=generar_sql,
inputs=gr.Textbox(lines=3, label="Pregunta en español"),
outputs=gr.Textbox(label="Consulta SQL generada"),
title="Texto a SQL (entrada en español)",
description="Escribe una pregunta en español sobre la base de datos y obtén la consulta SQL."
)
iface.launch()
|