Spaces:
Paused
Paused
Update app.py
Browse files
app.py
CHANGED
@@ -129,13 +129,13 @@ base_model = "EleutherAI/gpt-neo-1.3B" #load_8bit = False (in load_tokenizer_
|
|
129 |
# Load model directly
|
130 |
#####################################################
|
131 |
#Tokenizer und Model laden
|
132 |
-
tokenizer,model,device = load_tokenizer_and_model(base_model, False)
|
133 |
|
134 |
#################################################
|
135 |
# Few-Shot Training!!!!!!!!!
|
136 |
#################################################
|
137 |
# Load SetFit model from Hub
|
138 |
-
|
139 |
|
140 |
|
141 |
#tokenizer.add_special_tokens({'pad_token': '[PAD]'}) #not necessary with fast Toekenizers like GPT2
|
@@ -250,7 +250,7 @@ training_args = TrainingArguments(
|
|
250 |
#Trainer zusammenstellen
|
251 |
print ("################################")
|
252 |
print ("trainer")
|
253 |
-
|
254 |
trainer = Trainer(
|
255 |
model=model,
|
256 |
args=training_args,
|
@@ -262,7 +262,7 @@ trainer = Trainer(
|
|
262 |
tokenizer=tokenizer,
|
263 |
compute_metrics=compute_metrics,
|
264 |
)
|
265 |
-
|
266 |
|
267 |
###############################################
|
268 |
# Special QA Trainer...#
|
@@ -280,7 +280,7 @@ trainer = QuestionAnsweringTrainer(
|
|
280 |
)
|
281 |
'''
|
282 |
#################################################
|
283 |
-
|
284 |
|
285 |
#################################################
|
286 |
# Few-Shot Training!!!!!!!!!
|
@@ -289,15 +289,15 @@ trainer = QuestionAnsweringTrainer(
|
|
289 |
# Create Few-Shot trainer
|
290 |
trainer = SetFitTrainer(
|
291 |
model=model,
|
292 |
-
train_dataset=
|
293 |
-
eval_dataset=
|
294 |
loss_class=CosineSimilarityLoss,
|
295 |
batch_size=16,
|
296 |
num_iterations=20, # Number of text pairs to generate for contrastive learning
|
297 |
num_epochs=1 # Number of epochs to use for contrastive learning
|
298 |
)
|
299 |
|
300 |
-
|
301 |
#################################################
|
302 |
# special Trainer Baize Model
|
303 |
# Parameters für Model 7b: 7b 32 0.0002
|
|
|
129 |
# Load model directly
|
130 |
#####################################################
|
131 |
#Tokenizer und Model laden
|
132 |
+
#tokenizer,model,device = load_tokenizer_and_model(base_model, False)
|
133 |
|
134 |
#################################################
|
135 |
# Few-Shot Training!!!!!!!!!
|
136 |
#################################################
|
137 |
# Load SetFit model from Hub
|
138 |
+
tokenizer,model,device = load_tokenizer_and_model_setFit(base_model, False)
|
139 |
|
140 |
|
141 |
#tokenizer.add_special_tokens({'pad_token': '[PAD]'}) #not necessary with fast Toekenizers like GPT2
|
|
|
250 |
#Trainer zusammenstellen
|
251 |
print ("################################")
|
252 |
print ("trainer")
|
253 |
+
'''
|
254 |
trainer = Trainer(
|
255 |
model=model,
|
256 |
args=training_args,
|
|
|
262 |
tokenizer=tokenizer,
|
263 |
compute_metrics=compute_metrics,
|
264 |
)
|
265 |
+
'''
|
266 |
|
267 |
###############################################
|
268 |
# Special QA Trainer...#
|
|
|
280 |
)
|
281 |
'''
|
282 |
#################################################
|
283 |
+
|
284 |
|
285 |
#################################################
|
286 |
# Few-Shot Training!!!!!!!!!
|
|
|
289 |
# Create Few-Shot trainer
|
290 |
trainer = SetFitTrainer(
|
291 |
model=model,
|
292 |
+
train_dataset=lm_datasets["train"],
|
293 |
+
eval_dataset=lm_datasets["test"],
|
294 |
loss_class=CosineSimilarityLoss,
|
295 |
batch_size=16,
|
296 |
num_iterations=20, # Number of text pairs to generate for contrastive learning
|
297 |
num_epochs=1 # Number of epochs to use for contrastive learning
|
298 |
)
|
299 |
|
300 |
+
'''
|
301 |
#################################################
|
302 |
# special Trainer Baize Model
|
303 |
# Parameters für Model 7b: 7b 32 0.0002
|