File size: 900 Bytes
ec02098
 
8e635a7
ec02098
 
8e635a7
ec02098
 
 
 
 
 
 
 
 
 
 
5e1716d
 
8e635a7
ec02098
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

# Cargar el tokenizer del modelo base
tokenizer = AutoTokenizer.from_pretrained("unsloth/meta-llama-3.1-8b-bnb-4bit")

# Cargar el modelo base
model = AutoModelForCausalLM.from_pretrained("unsloth/meta-llama-3.1-8b-bnb-4bit", 
                                             load_in_4bit=True, 
                                             device_map="auto")

# Cargar el adaptador LoRA
model.load_adapter("JuanCabs/lapepav1", source="hf")

# Prueba de generación de texto
def generar_respuesta(prompt):
    inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
    outputs = model.generate(**inputs, max_length=100)
    return tokenizer.decode(outputs[0], skip_special_tokens=True)

# Ejemplo de uso
prompt = "¿Cómo será el futuro de la inteligencia artificial?"
respuesta = generar_respuesta(prompt)
print(respuesta)