LymphSteamer commited on
Commit
4c37b59
·
verified ·
1 Parent(s): 0d722f7

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +2 -2
app.py CHANGED
@@ -14,9 +14,9 @@ model.eval()
14
  prompt =("川柳:朝寝坊 言い訳考え また寝なおす 川柳:財布見る まるで冷蔵庫 空っぽだ 川柳:ダイエット 明日からって 五年目だ 川柳:マスク取る 顔が誰だか わからない 川柳:ため息が わいふぁいよりも よく飛ぶよ 川柳:")
15
  inputs = tokenizer(prompt,return_tensors="pt")
16
  prompt_len = inputs["input_ids"].shape[-1] # プロンプトのトークン数!
 
 
17
  def haiku_generate():
18
- if not torch.cuda.is_available():
19
- inputs ={k:v.to("cpu") for k,v in inputs.items()}
20
  with torch.no_grad():
21
  outputs = model.generate(
22
  **inputs,
 
14
  prompt =("川柳:朝寝坊 言い訳考え また寝なおす 川柳:財布見る まるで冷蔵庫 空っぽだ 川柳:ダイエット 明日からって 五年目だ 川柳:マスク取る 顔が誰だか わからない 川柳:ため息が わいふぁいよりも よく飛ぶよ 川柳:")
15
  inputs = tokenizer(prompt,return_tensors="pt")
16
  prompt_len = inputs["input_ids"].shape[-1] # プロンプトのトークン数!
17
+ device = "cuda" if torch.cuda.is_available() else "cpu"
18
+ inputs ={k:v.to(device) for k,v in inputs.items()}
19
  def haiku_generate():
 
 
20
  with torch.no_grad():
21
  outputs = model.generate(
22
  **inputs,