Spaces:
Running
Running
Update app.py
Browse files
app.py
CHANGED
@@ -14,9 +14,9 @@ model.eval()
|
|
14 |
prompt =("川柳:朝寝坊 言い訳考え また寝なおす 川柳:財布見る まるで冷蔵庫 空っぽだ 川柳:ダイエット 明日からって 五年目だ 川柳:マスク取る 顔が誰だか わからない 川柳:ため息が わいふぁいよりも よく飛ぶよ 川柳:")
|
15 |
inputs = tokenizer(prompt,return_tensors="pt")
|
16 |
prompt_len = inputs["input_ids"].shape[-1] # プロンプトのトークン数!
|
|
|
|
|
17 |
def haiku_generate():
|
18 |
-
if not torch.cuda.is_available():
|
19 |
-
inputs ={k:v.to("cpu") for k,v in inputs.items()}
|
20 |
with torch.no_grad():
|
21 |
outputs = model.generate(
|
22 |
**inputs,
|
|
|
14 |
prompt =("川柳:朝寝坊 言い訳考え また寝なおす 川柳:財布見る まるで冷蔵庫 空っぽだ 川柳:ダイエット 明日からって 五年目だ 川柳:マスク取る 顔が誰だか わからない 川柳:ため息が わいふぁいよりも よく飛ぶよ 川柳:")
|
15 |
inputs = tokenizer(prompt,return_tensors="pt")
|
16 |
prompt_len = inputs["input_ids"].shape[-1] # プロンプトのトークン数!
|
17 |
+
device = "cuda" if torch.cuda.is_available() else "cpu"
|
18 |
+
inputs ={k:v.to(device) for k,v in inputs.items()}
|
19 |
def haiku_generate():
|
|
|
|
|
20 |
with torch.no_grad():
|
21 |
outputs = model.generate(
|
22 |
**inputs,
|