Spaces:
Running
Running
Update app.py
Browse files
app.py
CHANGED
@@ -11,9 +11,9 @@ model = AutoModelForCausalLM.from_pretrained(
|
|
11 |
trust_remote_code=True
|
12 |
)
|
13 |
model.eval()
|
|
|
14 |
inputs = tokenizer(prompt,return_tensors="pt")
|
15 |
prompt_len = inputs["input_ids"].shape[-1] # プロンプトのトークン数!
|
16 |
-
prompt =("川柳:朝寝坊 言い訳考え また寝なおす 川柳:財布見る まるで冷蔵庫 空っぽだ 川柳:ダイエット 明日からって 五年目だ 川柳:マスク取る 顔が誰だか わからない 川柳:ため息が わいふぁいよりも よく飛ぶよ 川柳:")
|
17 |
def haiku_generate():
|
18 |
if not torch.cuda.is_available():
|
19 |
inputs ={k:v.to("cpu") for k,v in inputs.items()}
|
|
|
11 |
trust_remote_code=True
|
12 |
)
|
13 |
model.eval()
|
14 |
+
prompt =("川柳:朝寝坊 言い訳考え また寝なおす 川柳:財布見る まるで冷蔵庫 空っぽだ 川柳:ダイエット 明日からって 五年目だ 川柳:マスク取る 顔が誰だか わからない 川柳:ため息が わいふぁいよりも よく飛ぶよ 川柳:")
|
15 |
inputs = tokenizer(prompt,return_tensors="pt")
|
16 |
prompt_len = inputs["input_ids"].shape[-1] # プロンプトのトークン数!
|
|
|
17 |
def haiku_generate():
|
18 |
if not torch.cuda.is_available():
|
19 |
inputs ={k:v.to("cpu") for k,v in inputs.items()}
|