km1lo commited on
Commit
ca57d24
·
verified ·
1 Parent(s): 1cfdae9

Upload app.py

Browse files
Files changed (1) hide show
  1. app.py +122 -0
app.py ADDED
@@ -0,0 +1,122 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # -*- coding: utf-8 -*-
2
+ """app
3
+
4
+ Automatically generated by Colab.
5
+
6
+ Original file is located at
7
+ https://colab.research.google.com/drive/1wRkm-I_EXqntL8VTU-vmBDvyx4tV_8Wp
8
+ """
9
+
10
+ import gradio as gr
11
+ import joblib
12
+ import numpy as np
13
+ from sentence_transformers import SentenceTransformer
14
+ from sklearn.preprocessing import LabelEncoder
15
+ from transformers import pipeline
16
+
17
+ # Carga de modelos
18
+ modelo_riesgo = joblib.load("modelo_riesgo.pkl")
19
+ modelo_violencia = joblib.load("modelo_tipo_violencia.pkl")
20
+ modelo_medida = joblib.load("modelo_tipo_medida.pkl")
21
+ modelo_vector = SentenceTransformer("Snowflake/snowflake-arctic-embed-xs")
22
+
23
+ # Fragmento acortado del Artículo 5
24
+ fragmento_ley = """
25
+ Artículo 5 – Medidas de protección (resumen):
26
+
27
+ a) Desalojo del agresor si representa amenaza.
28
+ b) Prohibición de acercarse a la víctima.
29
+ c) Prohibición de mover menores sin autorización.
30
+ d) Obligación de tratamiento terapéutico.
31
+ e) Pago de atención médica o psicológica.
32
+ f) Protección policial en el hogar o trabajo.
33
+ g) Acompañamiento policial para retornar al hogar.
34
+ h) Régimen provisional de visitas y custodia.
35
+ i) Suspensión de porte de armas.
36
+ j) Pago de pensión alimentaria.
37
+ k) Uso y disfrute de la vivienda familiar.
38
+ m) Devolución de documentos y objetos.
39
+ n) Cualquier otra medida necesaria.
40
+ """
41
+
42
+ # Pipeline del modelo de lenguaje
43
+ modelo_llm = pipeline(
44
+ "text2text-generation",
45
+ model="google/flan-t5-base",
46
+ max_new_tokens=250,
47
+ truncation=True
48
+ )
49
+
50
+ # Codificadores
51
+ codificadores = {
52
+ "genero": LabelEncoder().fit(["F", "M"]),
53
+ "convivencia_agresor": LabelEncoder().fit(["sí", "no"]),
54
+ "consumo_sustancias": LabelEncoder().fit(["sí", "no"]),
55
+ "apoyo_familiar": LabelEncoder().fit(["sí", "no"]),
56
+ "riesgo": LabelEncoder().fit(["bajo", "medio", "alto"]),
57
+ "tipo_violencia": LabelEncoder().fit(["física", "psicológica", "sexual", "económica", "patrimonial", "negligencia"]),
58
+ "tipo_medida": LabelEncoder().fit(["nominada", "innominada"])
59
+ }
60
+
61
+ # Función principal
62
+ def resolver_caso(edad, genero, hijos, convivencia_agresor, consumo_sustancias, apoyo_familiar, descripcion):
63
+ vector_tabular = np.array([
64
+ edad,
65
+ hijos,
66
+ codificadores["genero"].transform([genero])[0],
67
+ 0, 0, 0,
68
+ codificadores["convivencia_agresor"].transform([convivencia_agresor])[0],
69
+ codificadores["consumo_sustancias"].transform([consumo_sustancias])[0],
70
+ codificadores["apoyo_familiar"].transform([apoyo_familiar])[0],
71
+ ])
72
+ vector_texto = modelo_vector.encode([descripcion])[0]
73
+ entrada = np.concatenate([vector_tabular, vector_texto])
74
+
75
+ riesgo_cod = modelo_riesgo.predict([entrada])[0]
76
+ violencia_cod = modelo_violencia.predict([entrada])[0]
77
+ medida_cod = modelo_medida.predict([entrada])[0]
78
+
79
+ riesgo = codificadores["riesgo"].inverse_transform([riesgo_cod])[0]
80
+ violencia = codificadores["tipo_violencia"].inverse_transform([violencia_cod])[0]
81
+ tipo_medida = codificadores["tipo_medida"].inverse_transform([medida_cod])[0]
82
+
83
+ prompt = f"""
84
+ CASO:
85
+ Edad: {edad}, Género: {genero}, Hijos: {hijos}
86
+ Convivencia con agresor: {convivencia_agresor}, Sustancias: {consumo_sustancias}, Apoyo familiar: {apoyo_familiar}
87
+ Descripción: {descripcion}
88
+ Predicción: Violencia: {violencia}, Riesgo: {riesgo}, Medida base: {tipo_medida}
89
+
90
+ Texto legal:
91
+ {fragmento_ley}
92
+
93
+ Pregunta: ¿Qué medida específica debe tomarse y por qué? Indica el literal correspondiente.
94
+ """
95
+
96
+ respuesta = modelo_llm(prompt)[0]['generated_text']
97
+ return violencia, riesgo, tipo_medida, respuesta.strip()
98
+
99
+ # Interfaz de Gradio
100
+ demo = gr.Interface(
101
+ fn=resolver_caso,
102
+ inputs=[
103
+ gr.Slider(18, 65, value=30, label="Edad"),
104
+ gr.Radio(["F", "M"], label="Género"),
105
+ gr.Slider(0, 5, step=1, value=1, label="Número de hijos"),
106
+ gr.Radio(["sí", "no"], label="¿Convive con el agresor?"),
107
+ gr.Radio(["sí", "no"], label="¿Hay consumo de sustancias?"),
108
+ gr.Radio(["sí", "no"], label="¿Tiene apoyo familiar?"),
109
+ gr.Textbox(lines=4, label="Descripción del caso")
110
+ ],
111
+ outputs=[
112
+ gr.Textbox(label="🛑 Tipo de violencia"),
113
+ gr.Textbox(label="⚠️ Nivel de riesgo"),
114
+ gr.Textbox(label="📄 Tipo de medida base"),
115
+ gr.Textbox(label="📚 Recomendación legal")
116
+ ],
117
+ title="LEGALFAMI – IA Legal para Medidas de Protección",
118
+ description="Predicción de violencia, riesgo y medidas según Art. 5 Ley 575 modificado por Ley 1257 y 2126."
119
+ )
120
+
121
+ if __name__ == "__main__":
122
+ demo.launch()