LymphSteamer commited on
Commit
332914e
·
verified ·
1 Parent(s): c1ff840

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +2 -2
app.py CHANGED
@@ -11,10 +11,10 @@ model = AutoModelForCausalLM.from_pretrained(
11
  trust_remote_code=True
12
  )
13
  model.eval()
 
 
14
  prompt =("川柳:朝寝坊 言い訳考え また寝なおす 川柳:財布見る まるで冷蔵庫 空っぽだ 川柳:ダイエット 明日からって 五年目だ 川柳:マスク取る 顔が誰だか わからない 川柳:ため息が わいふぁいよりも よく飛ぶよ 川柳:")
15
  def haiku_generate():
16
- inputs = tokenizer(prompt,return_tensors="pt")
17
- prompt_len = inputs["input_ids"].shape[-1] # プロンプトのトークン数!
18
  if not torch.cuda.is_available():
19
  inputs ={k:v.to("cpu") for k,v in inputs.items()}
20
  with torch.no_grad():
 
11
  trust_remote_code=True
12
  )
13
  model.eval()
14
+ inputs = tokenizer(prompt,return_tensors="pt")
15
+ prompt_len = inputs["input_ids"].shape[-1] # プロンプトのトークン数!
16
  prompt =("川柳:朝寝坊 言い訳考え また寝なおす 川柳:財布見る まるで冷蔵庫 空っぽだ 川柳:ダイエット 明日からって 五年目だ 川柳:マスク取る 顔が誰だか わからない 川柳:ため息が わいふぁいよりも よく飛ぶよ 川柳:")
17
  def haiku_generate():
 
 
18
  if not torch.cuda.is_available():
19
  inputs ={k:v.to("cpu") for k,v in inputs.items()}
20
  with torch.no_grad():