dsfdfsghgf commited on
Commit
30086d4
·
verified ·
1 Parent(s): f8fbfca

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +7 -11
app.py CHANGED
@@ -1,15 +1,11 @@
1
- # Direktes Laden von Tokenizer und Modell
2
- from transformers import AutoTokenizer, AutoModel
3
 
4
  # Authentifizierung mit deinem Token
5
- hf_token = "HF_TOKEN" # Dein Token hier einfügen
6
 
7
- # Lade den Tokenizer und das Modell
8
- tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen2.5-Math-RM-72B", trust_remote_code=True, use_auth_token=hf_token)
9
- model = AutoModel.from_pretrained("Qwen/Qwen2.5-Math-RM-72B", trust_remote_code=True, use_auth_token=hf_token)
10
 
11
- # Beispielhafte Anwendung des Modells auf einen Text
12
- text = "Hier steht ein Beispielsatz, den du verarbeiten möchtest."
13
- inputs = tokenizer(text, return_tensors="pt")
14
- outputs = model(**inputs)
15
- print(outputs)
 
1
+ from transformers import pipeline, AutoTokenizer, AutoModel
 
2
 
3
  # Authentifizierung mit deinem Token
4
+ hf_token = "HF_TOKEN"
5
 
6
+ # Pipeline-Beispiel
7
+ pipe = pipeline("text-classification", model="Qwen/Qwen2.5-Math-RM-72B", trust_remote_code=True, token=hf_token)
 
8
 
9
+ # Direktes Modell-Beispiel
10
+ tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen2.5-Math-RM-72B", trust_remote_code=True, token=hf_token)
11
+ model = AutoModel.from_pretrained("Qwen/Qwen2.5-Math-RM-72B", trust_remote_code=True, token=hf_token)