Spaces:
Runtime error
Runtime error
File size: 1,457 Bytes
6c226f9 77b0fd8 5bcf187 c01ffa1 5bcf187 35b2d21 5bcf187 c01ffa1 5bcf187 3c0cd8e bab1585 6c226f9 35b2d21 6c226f9 13e0565 5bcf187 3c0cd8e 85b6c52 5bcf187 85b6c52 5bcf187 85b6c52 f6b1fad 5bcf187 85b6c52 5bcf187 6c226f9 5bcf187 6c226f9 5208902 5bcf187 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 |
import gradio as gr
from whisper_cs import generate
from AinaTheme import theme
import spaces
USE_V2 = False
@spaces.GPU
def transcribe(inputs, model_version):
if inputs is None:
raise gr.Error("Cap fitxer d'àudio introduit! Si us plau pengeu un fitxer "\
"o enregistreu un àudio abans d'enviar la vostra sol·licitud")
use_v2 = model_version == "v2.0"
return generate(audio_path=inputs, use_v2=use_v2)
description_string = "Transcripció automàtica de micròfon o de fitxers d'àudio.\n Aquest demostrador s'ha desenvolupat per"\
" comprovar els models de reconeixement de parla per a móbils."
def clear():
return None, "v1.0"
with gr.Blocks() as demo:
gr.Markdown(description_string)
with gr.Row():
with gr.Column(scale=1):
model_version = gr.Dropdown(label="Model Version", choices=["v1.0", "v2.0"], value="v1.0")
input = gr.Audio(sources=["upload", "microphone"], type="filepath", label="Audio")
with gr.Column(scale=1):
output = gr.Textbox(label="Output", lines=8)
with gr.Row(variant="panel"):
clear_btn = gr.Button("Clear")
submit_btn = gr.Button("Submit", variant="primary")
submit_btn.click(fn=transcribe, inputs=[input, model_version], outputs=[output])
clear_btn.click(fn=clear, inputs=[], outputs=[input, model_version], queue=False)
if __name__ == "__main__":
demo.launch()
|