Update generator/llm_inference.py
Browse files
generator/llm_inference.py
CHANGED
@@ -7,7 +7,7 @@ generator = pipeline(
|
|
7 |
model="dasomaru/gemma-3-4bit-it-demo", # 네가 업로드한 모델 이름
|
8 |
tokenizer="dasomaru/gemma-3-4bit-it-demo",
|
9 |
device=0, # CUDA:0 사용 (GPU). CPU만 있으면 device=-1
|
10 |
-
max_new_tokens=
|
11 |
temperature=0.7,
|
12 |
top_p=0.9,
|
13 |
repetition_penalty=1.1
|
|
|
7 |
model="dasomaru/gemma-3-4bit-it-demo", # 네가 업로드한 모델 이름
|
8 |
tokenizer="dasomaru/gemma-3-4bit-it-demo",
|
9 |
device=0, # CUDA:0 사용 (GPU). CPU만 있으면 device=-1
|
10 |
+
max_new_tokens=2048,
|
11 |
temperature=0.7,
|
12 |
top_p=0.9,
|
13 |
repetition_penalty=1.1
|