Spaces:
Runtime error
Runtime error
import gradio as gr | |
from transformers import AutoModelForCausalLM, AutoTokenizer | |
# Cargar el modelo en 8 bits usando bitsandbytes | |
model = AutoModelForCausalLM.from_pretrained( | |
"JuanCabs/lapepav0", # Nombre de tu modelo en Hugging Face | |
load_in_8bit=True, # Cargar el modelo en 8 bits | |
device_map="auto" # Asignar autom谩ticamente a la GPU si est谩 disponible | |
) | |
tokenizer = AutoTokenizer.from_pretrained("JuanCabs/lapepav0") | |
# Definir la funci贸n para generar texto | |
def generate_text(prompt): | |
inputs = tokenizer(prompt, return_tensors="pt") | |
outputs = model.generate(**inputs, max_length=100) | |
return tokenizer.decode(outputs[0], skip_special_tokens=True) | |
# Crear la interfaz de Gradio | |
interface = gr.Interface( | |
fn=generate_text, # Funci贸n que se ejecutar谩 cuando el usuario env铆e un prompt | |
inputs="text", # Entrada de texto | |
outputs="text", # Salida de texto | |
title="Text Generation with 8-bit Model", # T铆tulo del Space | |
description="Introduce un prompt para generar texto usando un modelo en 8 bits" # Descripci贸n | |
) | |
# Lanzar la aplicaci贸n | |
interface.launch() | |