alexkueck commited on
Commit
256d6ef
·
1 Parent(s): 53ba491

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +15 -20
app.py CHANGED
@@ -219,21 +219,22 @@ print("done load")
219
 
220
 
221
 
222
- ############################
223
- #Test des Modells
224
  ############################
225
  print("Test")
226
- text = "Was ist Tis?"
227
-
228
- # Example usage
229
  prompt = "Was ist TIS?"
230
 
231
- response = generate_response(prompt, model_neu, tokenizer_neu)
232
- print(response)
233
- print("response done")
 
 
234
 
235
 
236
  '''
 
 
237
  #encoding = tokenizer(text, return_tensors="pt")
238
  #encoding = {k: v.to(trainer.model.device) for k,v in encoding.items()}
239
 
@@ -247,24 +248,18 @@ print("Output:\n" )
247
  #print(tokenizer.decode(outputs[0], skip_special_tokens=True))
248
  '''
249
 
250
-
251
-
252
-
253
- ##############################################
254
- #Testen des fine-tuned Modells
255
- '''
256
  print("Predict")
257
- login(token=os.environ["HF_ACCESS_TOKEN"]) #read access token!!!!!!!!!!
258
- model_name = "alexkueck/test-tis-1"
259
- tokenizer_neu = load_tokenizer(base_model)
260
- model_neu, device_neu = load_model(model_name, False)
261
- antwort = predict(model_neu, tokenizer_neu, device_neu, "Was ist Tis?", [["Tis", ""]], top_p=5,
262
  temperature=0.8,
263
  max_length_tokens=1024,
264
  max_context_length_tokens=2048,)
265
  print(antwort)
266
  print("done Predict")
267
- '''
 
 
268
  #######################################################################
269
  #Darstellung mit Gradio
270
  '''
 
219
 
220
 
221
 
222
+ ##############################################
223
+ #Testen des fine-tuned Modells
224
  ############################
225
  print("Test")
 
 
 
226
  prompt = "Was ist TIS?"
227
 
228
+ #####################################
229
+ #mit generate_response - nicht bei allen Tikenizern möglich
230
+ #response = generate_response(prompt, model_neu, tokenizer_neu)
231
+ #print(response)
232
+ #print("response done")
233
 
234
 
235
  '''
236
+ #######################################
237
+ #Encoding Tokenizer..
238
  #encoding = tokenizer(text, return_tensors="pt")
239
  #encoding = {k: v.to(trainer.model.device) for k,v in encoding.items()}
240
 
 
248
  #print(tokenizer.decode(outputs[0], skip_special_tokens=True))
249
  '''
250
 
251
+ ########################################
252
+ #mit der predict Funktion
 
 
 
 
253
  print("Predict")
254
+ antwort = predict(model_neu, tokenizer_neu, device_neu, prompt, [["Tis", ""]], top_p=5,
 
 
 
 
255
  temperature=0.8,
256
  max_length_tokens=1024,
257
  max_context_length_tokens=2048,)
258
  print(antwort)
259
  print("done Predict")
260
+
261
+
262
+
263
  #######################################################################
264
  #Darstellung mit Gradio
265
  '''