dsfdfsghgf commited on
Commit
f8fbfca
·
verified ·
1 Parent(s): 350550d

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +12 -17
app.py CHANGED
@@ -1,20 +1,15 @@
1
- import os
2
- import gradio as gr
3
- from transformers import pipeline
4
 
5
- # Stelle sicher, dass das Hugging Face Token aus den Secrets abgerufen wird
6
- hf_token = os.getenv('HF_TOKEN') # Holen des Tokens aus den Secrets
7
 
8
- # Verwende das Token, wenn du das Modell von Hugging Face laden möchtest
9
- generator = pipeline('text-generation', model='huggingface/qwen2.5', use_auth_token=hf_token)
 
10
 
11
- def generate_text(prompt):
12
- """Generiert Text basierend auf der Eingabeaufforderung."""
13
- result = generator(prompt, max_length=200)
14
- return result[0]['generated_text']
15
-
16
- # Gradio UI
17
- interface = gr.Interface(fn=generate_text, inputs="text", outputs="text", title="Qwen 2.5 Math Modell")
18
-
19
- # Starten des Gradio Interfaces
20
- interface.launch()
 
1
+ # Direktes Laden von Tokenizer und Modell
2
+ from transformers import AutoTokenizer, AutoModel
 
3
 
4
+ # Authentifizierung mit deinem Token
5
+ hf_token = "HF_TOKEN" # Dein Token hier einfügen
6
 
7
+ # Lade den Tokenizer und das Modell
8
+ tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen2.5-Math-RM-72B", trust_remote_code=True, use_auth_token=hf_token)
9
+ model = AutoModel.from_pretrained("Qwen/Qwen2.5-Math-RM-72B", trust_remote_code=True, use_auth_token=hf_token)
10
 
11
+ # Beispielhafte Anwendung des Modells auf einen Text
12
+ text = "Hier steht ein Beispielsatz, den du verarbeiten möchtest."
13
+ inputs = tokenizer(text, return_tensors="pt")
14
+ outputs = model(**inputs)
15
+ print(outputs)