File size: 1,284 Bytes
5822624
bb4a570
47a2dc5
bb4a570
ee62733
bb4a570
 
 
ee62733
bb4a570
 
 
94ca4fb
bb4a570
5822624
ee62733
47a2dc5
bb4a570
 
 
 
ee62733
 
 
 
bb4a570
5822624
ee62733
 
 
bb4a570
 
5822624
ee62733
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
import gradio as gr
from transformers import T5Tokenizer, T5ForConditionalGeneration
from deep_translator import GoogleTranslator
import torch

# Optimización para entornos limitados
torch.set_num_threads(1)
torch.set_num_interop_threads(1)

# Modelo público sin token
tokenizer = T5Tokenizer.from_pretrained("mrm8488/t5-base-finetuned-wikiSQL")
model = T5ForConditionalGeneration.from_pretrained("mrm8488/t5-base-finetuned-wikiSQL")

# Función para generar SQL
def generar_sql(pregunta_espanol):
    try:
        pregunta_ingles = GoogleTranslator(source="es", target="en").translate(pregunta_espanol)
        prompt = f"translate English to SQL: {pregunta_ingles}"
        input_ids = tokenizer(prompt, return_tensors="pt").input_ids
        output = model.generate(input_ids, max_length=128)
        sql = tokenizer.decode(output[0], skip_special_tokens=True)
        return sql
    except Exception as e:
        return f"Error: {str(e)}"

# Interfaz Gradio
iface = gr.Interface(
    fn=generar_sql,
    inputs=gr.Textbox(lines=3, label="Pregunta en español"),
    outputs=gr.Textbox(label="Consulta SQL generada"),
    title="Texto a SQL (con T5 de Hugging Face)",
    description="Convierte preguntas en español a SQL con un modelo entrenado en WikiSQL."
)

iface.launch()