JuanCabs's picture
Update app.py
9978bd4 verified
raw
history blame
973 Bytes
import gradio as gr
from transformers import AutoModelForCausalLM, AutoTokenizer
# Cargar el modelo y el tokenizer desde Hugging Face
model = AutoModelForCausalLM.from_pretrained("JuanCabs/lapepav0")
tokenizer = AutoTokenizer.from_pretrained("JuanCabs/lapepav0")
# Definir la funci贸n para generar texto
def generate_text(prompt):
inputs = tokenizer(prompt, return_tensors="pt") # Tokenizar la entrada
outputs = model.generate(**inputs, max_length=100) # Generar la salida
return tokenizer.decode(outputs[0], skip_special_tokens=True) # Decodificar y devolver el texto
# Crear la interfaz de Gradio
interface = gr.Interface(
fn=generate_text, # Funci贸n a ejecutar
inputs="text", # Tipo de entrada
outputs="text", # Tipo de salida
title="Text Generation Model", # T铆tulo de la app
description="Enter a prompt to generate text using a Hugging Face model" # Descripci贸n de la app
)
# Lanzar la aplicaci贸
interface.launch()