km1lo commited on
Commit
d76c50d
·
verified ·
1 Parent(s): 2009494

Upload 2 files

Browse files
Files changed (2) hide show
  1. app.py +136 -0
  2. requirements.txt +20 -0
app.py ADDED
@@ -0,0 +1,136 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # -*- coding: utf-8 -*-
2
+ """app.ipynb
3
+
4
+ Automatically generated by Colab.
5
+
6
+ Original file is located at
7
+ https://colab.research.google.com/drive/1e3y3OTjQnNFZ7FLgs2elviYcG7ptj2fI
8
+ """
9
+
10
+ from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
11
+ from sentence_transformers import SentenceTransformer, util
12
+ import numpy as np
13
+ import joblib
14
+ import torch
15
+ import gradio as gr
16
+ from transformers import TextGenerationPipeline
17
+
18
+ # === Cargar modelos entrenados ===
19
+ modelo_riesgo = joblib.load("modelo_riesgo.pkl")
20
+ modelo_violencia = joblib.load("modelo_tipo_violencia.pkl")
21
+ modelo_medida = joblib.load("modelo_tipo_medida.pkl")
22
+ codificadores = joblib.load("codificadores_label_encoder.pkl")
23
+ modelo_vector = SentenceTransformer("Snowflake/snowflake-arctic-embed-xs")
24
+
25
+ # === Cargar modelo de lenguaje OpenHermes-2.5 ===
26
+ model_id = "teknium/OpenHermes-2.5-Mistral-7B"
27
+
28
+ tokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True)
29
+ model = AutoModelForCausalLM.from_pretrained(
30
+ model_id,
31
+ trust_remote_code=True,
32
+ torch_dtype=torch.float16 if torch.cuda.is_available() else torch.float32,
33
+ device_map="auto"
34
+ )
35
+ modelo_llm = TextGenerationPipeline(
36
+ model=model,
37
+ tokenizer=tokenizer,
38
+ max_new_tokens=300,
39
+ temperature=0.5,
40
+ do_sample=True,
41
+ device=0 if torch.cuda.is_available() else -1
42
+ )
43
+
44
+ # === Frases prototipo para verificador semántico ===
45
+ frases_fisica = [
46
+ "Me golpeó con el puño cerrado", "Me pateó", "Me lanzó contra la pared",
47
+ "Me estranguló", "Me fracturó una costilla", "Me tiró al piso violentamente"
48
+ ]
49
+ frases_sexual = [
50
+ "Me obligó a tener relaciones sexuales", "Me tocó sin consentimiento",
51
+ "Me violó", "Me forzó a tener sexo", "Me agredió sexualmente"
52
+ ]
53
+ embeds_fisica = modelo_vector.encode(frases_fisica)
54
+ embeds_sexual = modelo_vector.encode(frases_sexual)
55
+
56
+ # === FUNCIÓN PRINCIPAL ===
57
+ def predecir_con_recomendacion(edad, genero, hijos, convivencia_agresor, consumo_sustancias, apoyo_familiar, descripcion):
58
+ # Codificar variables
59
+ vector_tabular = np.array([
60
+ int(edad),
61
+ int(hijos),
62
+ codificadores["genero"].transform([genero])[0],
63
+ 0, 0, 0,
64
+ codificadores["convivencia_agresor"].transform([convivencia_agresor])[0],
65
+ codificadores["consumo_sustancias"].transform([consumo_sustancias])[0],
66
+ codificadores["apoyo_familiar"].transform([apoyo_familiar])[0]
67
+ ])
68
+
69
+ # Vectorizar descripción
70
+ vector_desc = modelo_vector.encode([descripcion])[0]
71
+ entrada = np.concatenate([vector_tabular, vector_desc])
72
+
73
+ # Predicciones
74
+ riesgo_cod = modelo_riesgo.predict([entrada])[0]
75
+ tipo_violencia_cod = modelo_violencia.predict([entrada])[0]
76
+ tipo_medida_cod = modelo_medida.predict([entrada])[0]
77
+
78
+ # Decodificar
79
+ riesgo = codificadores["riesgo"].inverse_transform([riesgo_cod])[0]
80
+ tipo_violencia = codificadores["tipo_violencia"].inverse_transform([tipo_violencia_cod])[0]
81
+ tipo_medida = codificadores["tipo_medida"].inverse_transform([tipo_medida_cod])[0]
82
+
83
+ # Verificador semántico
84
+ emb_desc = modelo_vector.encode(descripcion)
85
+ sim_fisica = max(util.cos_sim(emb_desc, embeds_fisica)[0])
86
+ sim_sexual = max(util.cos_sim(emb_desc, embeds_sexual)[0])
87
+ if sim_fisica > 0.7:
88
+ tipo_violencia = "física"
89
+ elif sim_sexual > 0.7:
90
+ tipo_violencia = "sexual"
91
+
92
+ # PROMPT legal
93
+ prompt = f"""[INSTRUCCIÓN]
94
+ Como asistente legal, tu tarea es determinar qué medida de protección debe aplicarse en un caso de violencia intrafamiliar, de acuerdo al Artículo 5 de la Ley 575 de 2000 (modificado por la Ley 1257 de 2008 y la Ley 2126 de 2021).
95
+
96
+ [CASO]
97
+ Tipo de violencia: {tipo_violencia}
98
+ Nivel de riesgo: {riesgo}
99
+ Tipo de medida cautelar: {tipo_medida}
100
+ Descripción del caso: {descripcion}
101
+
102
+ [OBJETIVO]
103
+ Con base en la descripción del caso y la ley, indica:
104
+ - Qué literal(es) del Artículo 5 (a-n) deben aplicarse.
105
+ - Justifica legalmente tu elección con argumentos claros y precisos.
106
+
107
+ [RESPUESTA]
108
+ """
109
+
110
+ respuesta = modelo_llm(prompt, max_new_tokens=350, temperature=0.5)[0]["generated_text"]
111
+ razonamiento = respuesta.split("[RESPUESTA]")[-1].strip()
112
+
113
+ return tipo_violencia, riesgo, tipo_medida, razonamiento
114
+
115
+ # === Gradio UI ===
116
+ gr.Interface(
117
+ fn=predecir_con_recomendacion,
118
+ inputs=[
119
+ gr.Slider(18, 65, value=30, label="Edad"),
120
+ gr.Radio(["F", "M"], label="Género"),
121
+ gr.Slider(0, 5, step=1, value=1, label="Número de hijos"),
122
+ gr.Radio(["sí", "no"], label="¿Convive con el agresor?"),
123
+ gr.Radio(["sí", "no"], label="¿Hay consumo de sustancias?"),
124
+ gr.Radio(["sí", "no"], label="¿Tiene apoyo familiar?"),
125
+ gr.Textbox(lines=4, label="Descripción del caso")
126
+ ],
127
+ outputs=[
128
+ gr.Textbox(label="🛑 Tipo de violencia predicho"),
129
+ gr.Textbox(label="⚠️ Nivel de riesgo"),
130
+ gr.Textbox(label="🧾 Tipo de medida cautelar"),
131
+ gr.Textbox(label="📜 Recomendación legal razonada")
132
+ ],
133
+ title="LEGALFAMI – Asistente Legal con Razonamiento Jurídico",
134
+ description="Predice tipo de violencia, nivel de riesgo y medida cautelar según Ley 575 Artículo 5, y recomienda la acción legal correspondiente.",
135
+ theme="default"
136
+ ).launch()
requirements.txt ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # Interfaz
2
+ gradio>=4.17.0
3
+
4
+ # Modelos y NLP
5
+ transformers>=4.39.0
6
+ sentence-transformers>=2.2.2
7
+ sentencepiece>=0.1.99
8
+
9
+ # ML clásico
10
+ scikit-learn>=1.3.0
11
+ pandas>=1.5.3
12
+ numpy>=1.24.3
13
+ joblib>=1.3.2
14
+
15
+ # Backend de deep learning
16
+ torch>=2.1.0
17
+
18
+ # Adicionales recomendados para compatibilidad con modelos pesados
19
+ accelerate>=0.21.0
20
+ safetensors>=0.3.3