alexkueck commited on
Commit
6a058ad
·
1 Parent(s): b37c716

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +8 -8
app.py CHANGED
@@ -129,13 +129,13 @@ base_model = "EleutherAI/gpt-neo-1.3B" #load_8bit = False (in load_tokenizer_
129
  # Load model directly
130
  #####################################################
131
  #Tokenizer und Model laden
132
- tokenizer,model,device = load_tokenizer_and_model(base_model, False)
133
 
134
  #################################################
135
  # Few-Shot Training!!!!!!!!!
136
  #################################################
137
  # Load SetFit model from Hub
138
- #tokenizer,model,device = load_tokenizer_and_model_setFit(base_model, False)
139
 
140
 
141
  #tokenizer.add_special_tokens({'pad_token': '[PAD]'}) #not necessary with fast Toekenizers like GPT2
@@ -250,7 +250,7 @@ training_args = TrainingArguments(
250
  #Trainer zusammenstellen
251
  print ("################################")
252
  print ("trainer")
253
-
254
  trainer = Trainer(
255
  model=model,
256
  args=training_args,
@@ -262,7 +262,7 @@ trainer = Trainer(
262
  tokenizer=tokenizer,
263
  compute_metrics=compute_metrics,
264
  )
265
-
266
 
267
  ###############################################
268
  # Special QA Trainer...#
@@ -280,7 +280,7 @@ trainer = QuestionAnsweringTrainer(
280
  )
281
  '''
282
  #################################################
283
- '''
284
 
285
  #################################################
286
  # Few-Shot Training!!!!!!!!!
@@ -289,15 +289,15 @@ trainer = QuestionAnsweringTrainer(
289
  # Create Few-Shot trainer
290
  trainer = SetFitTrainer(
291
  model=model,
292
- train_dataset=train_ds,
293
- eval_dataset=test_ds,
294
  loss_class=CosineSimilarityLoss,
295
  batch_size=16,
296
  num_iterations=20, # Number of text pairs to generate for contrastive learning
297
  num_epochs=1 # Number of epochs to use for contrastive learning
298
  )
299
 
300
-
301
  #################################################
302
  # special Trainer Baize Model
303
  # Parameters für Model 7b: 7b 32 0.0002
 
129
  # Load model directly
130
  #####################################################
131
  #Tokenizer und Model laden
132
+ #tokenizer,model,device = load_tokenizer_and_model(base_model, False)
133
 
134
  #################################################
135
  # Few-Shot Training!!!!!!!!!
136
  #################################################
137
  # Load SetFit model from Hub
138
+ tokenizer,model,device = load_tokenizer_and_model_setFit(base_model, False)
139
 
140
 
141
  #tokenizer.add_special_tokens({'pad_token': '[PAD]'}) #not necessary with fast Toekenizers like GPT2
 
250
  #Trainer zusammenstellen
251
  print ("################################")
252
  print ("trainer")
253
+ '''
254
  trainer = Trainer(
255
  model=model,
256
  args=training_args,
 
262
  tokenizer=tokenizer,
263
  compute_metrics=compute_metrics,
264
  )
265
+ '''
266
 
267
  ###############################################
268
  # Special QA Trainer...#
 
280
  )
281
  '''
282
  #################################################
283
+
284
 
285
  #################################################
286
  # Few-Shot Training!!!!!!!!!
 
289
  # Create Few-Shot trainer
290
  trainer = SetFitTrainer(
291
  model=model,
292
+ train_dataset=lm_datasets["train"],
293
+ eval_dataset=lm_datasets["test"],
294
  loss_class=CosineSimilarityLoss,
295
  batch_size=16,
296
  num_iterations=20, # Number of text pairs to generate for contrastive learning
297
  num_epochs=1 # Number of epochs to use for contrastive learning
298
  )
299
 
300
+ '''
301
  #################################################
302
  # special Trainer Baize Model
303
  # Parameters für Model 7b: 7b 32 0.0002