LymphSteamer commited on
Commit
0d722f7
·
verified ·
1 Parent(s): 332914e

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +1 -1
app.py CHANGED
@@ -11,9 +11,9 @@ model = AutoModelForCausalLM.from_pretrained(
11
  trust_remote_code=True
12
  )
13
  model.eval()
 
14
  inputs = tokenizer(prompt,return_tensors="pt")
15
  prompt_len = inputs["input_ids"].shape[-1] # プロンプトのトークン数!
16
- prompt =("川柳:朝寝坊 言い訳考え また寝なおす 川柳:財布見る まるで冷蔵庫 空っぽだ 川柳:ダイエット 明日からって 五年目だ 川柳:マスク取る 顔が誰だか わからない 川柳:ため息が わいふぁいよりも よく飛ぶよ 川柳:")
17
  def haiku_generate():
18
  if not torch.cuda.is_available():
19
  inputs ={k:v.to("cpu") for k,v in inputs.items()}
 
11
  trust_remote_code=True
12
  )
13
  model.eval()
14
+ prompt =("川柳:朝寝坊 言い訳考え また寝なおす 川柳:財布見る まるで冷蔵庫 空っぽだ 川柳:ダイエット 明日からって 五年目だ 川柳:マスク取る 顔が誰だか わからない 川柳:ため息が わいふぁいよりも よく飛ぶよ 川柳:")
15
  inputs = tokenizer(prompt,return_tensors="pt")
16
  prompt_len = inputs["input_ids"].shape[-1] # プロンプトのトークン数!
 
17
  def haiku_generate():
18
  if not torch.cuda.is_available():
19
  inputs ={k:v.to("cpu") for k,v in inputs.items()}