File size: 973 Bytes
8e635a7
4e195b0
8e635a7
4e195b0
 
 
8e635a7
4e195b0
8e635a7
4e195b0
 
 
8e635a7
4e195b0
8e635a7
4e195b0
 
 
 
 
8e635a7
 
9978bd4
8e635a7
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
import gradio as gr
from transformers import AutoModelForCausalLM, AutoTokenizer

# Cargar el modelo y el tokenizer desde Hugging Face
model = AutoModelForCausalLM.from_pretrained("JuanCabs/lapepav0")
tokenizer = AutoTokenizer.from_pretrained("JuanCabs/lapepav0")

# Definir la funci贸n para generar texto
def generate_text(prompt):
    inputs = tokenizer(prompt, return_tensors="pt")  # Tokenizar la entrada
    outputs = model.generate(**inputs, max_length=100)  # Generar la salida
    return tokenizer.decode(outputs[0], skip_special_tokens=True)  # Decodificar y devolver el texto

# Crear la interfaz de Gradio
interface = gr.Interface(
    fn=generate_text,  # Funci贸n a ejecutar
    inputs="text",     # Tipo de entrada
    outputs="text",    # Tipo de salida
    title="Text Generation Model",  # T铆tulo de la app
    description="Enter a prompt to generate text using a Hugging Face model"  # Descripci贸n de la app
)

# Lanzar la aplicaci贸
interface.launch()