File size: 2,429 Bytes
24ec802
31ae6cb
24ec802
790c1c3
d84feea
e26b373
 
 
56b478c
e26b373
 
070c5e5
2c1d0fb
 
 
 
24ec802
675f8dc
ae27f6e
 
 
 
 
 
 
b6ff19b
ae27f6e
b6ff19b
 
ae27f6e
 
24ec802
2c1d0fb
 
 
 
 
 
24ec802
 
3145812
7121326
3145812
37209a2
f9455ee
37209a2
 
475b6f7
 
267ce7a
7121326
bc032e1
 
2be1e6d
bc032e1
56b478c
c739563
7121326
24ec802
31ae6cb
b2ab0e6
 
784a279
b2ab0e6
d17f3d9
7150cb8
7121326
 
790c1c3
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
import requests
import streamlit as st
import streamlit.components.v1 as components
 
def semanticComparativeClassification():  
    API_URL = "https://api-inference.huggingface.co/models/symanto/sn-xlm-roberta-base-snli-mnli-anli-xnli"
    headers = {"Authorization": "Bearer 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"}
    #API_URL = "https://api-inference.huggingface.co/models/Maite89/Roberta_finetuning_semantic_similarity_stsb_multi_mt"
    st.write("Log:")
    def query(payload):
     

    	response = requests.post(API_URL, headers=headers, json=payload)
    	return response.json()
    
    sentences =  [
    			"Conoces Lya2",
    			"He perdido la contrase帽a, no puedo entrar o acceder a Lya2",
    			"Calendario de eventos, creamos un evento, borramos un evento ",
                "Sincronizamos Lya2 con el tel茅fono o m贸bil"
                "Cambios",
    			"Cambios dobles, pedir, autorizar, borrar un cambio doble",
                "Cambios simples,  pedir, autorizar, borrar un cambio simple",
                "Sessiones",
                "Personal",
                "Horarios",
                "脕reas",
                "Rastryco o rastrico",
                "Sylbo, la aplicaci贸n m贸bil de Lya2",
                "Hola, hi",
                "Adi贸s, bye bye, despides"
    		]
     	
    output = query({
    	"inputs": {
            "wait_for_model" : True,
    		"source_sentence": st.session_state.mytext,
    		"sentences": sentences
    	},
    })

    #st.write(output)
    
    index=0
    for i in output:
        st.write(sentences[index]," - ",i) 
        index = index + 1

    sentenceindex = output.index(max(output))

    if output[sentenceindex] < 0.3 :
        st.write("No tengo respuesta para esto, 驴me lo explicas mejor o te pongo en contacto con un humano?")  
        st.session_state["respuesta"]= "No tengo respuesta para esto, 驴me lo explicas mejor o te pongo en contacto con un humano?"
    else:
        st.write("Hablamos de ", str(sentences[sentenceindex]))  
        st.session_state["respuesta"]= "Tema reconocido: "+sitr(sentences[sentenceindex])
 
     


#x = st.slider('Select a value')
#st.write(x, 'squared is', x * x)
 

st.session_state.response = ""
st.title('Reconocimiento sem谩ntico')
title = st.text_input('Pregunta', 'Hazme una pregunta', on_change=semanticComparativeClassification,key='mytext')

st.text_area(   "Respuesta: ", key= "respuesta", height=200 )