Upload 2 files
Browse files- app.py +136 -0
- requirements.txt +20 -0
app.py
ADDED
@@ -0,0 +1,136 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
# -*- coding: utf-8 -*-
|
2 |
+
"""app.ipynb
|
3 |
+
|
4 |
+
Automatically generated by Colab.
|
5 |
+
|
6 |
+
Original file is located at
|
7 |
+
https://colab.research.google.com/drive/1e3y3OTjQnNFZ7FLgs2elviYcG7ptj2fI
|
8 |
+
"""
|
9 |
+
|
10 |
+
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
|
11 |
+
from sentence_transformers import SentenceTransformer, util
|
12 |
+
import numpy as np
|
13 |
+
import joblib
|
14 |
+
import torch
|
15 |
+
import gradio as gr
|
16 |
+
from transformers import TextGenerationPipeline
|
17 |
+
|
18 |
+
# === Cargar modelos entrenados ===
|
19 |
+
modelo_riesgo = joblib.load("modelo_riesgo.pkl")
|
20 |
+
modelo_violencia = joblib.load("modelo_tipo_violencia.pkl")
|
21 |
+
modelo_medida = joblib.load("modelo_tipo_medida.pkl")
|
22 |
+
codificadores = joblib.load("codificadores_label_encoder.pkl")
|
23 |
+
modelo_vector = SentenceTransformer("Snowflake/snowflake-arctic-embed-xs")
|
24 |
+
|
25 |
+
# === Cargar modelo de lenguaje OpenHermes-2.5 ===
|
26 |
+
model_id = "teknium/OpenHermes-2.5-Mistral-7B"
|
27 |
+
|
28 |
+
tokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True)
|
29 |
+
model = AutoModelForCausalLM.from_pretrained(
|
30 |
+
model_id,
|
31 |
+
trust_remote_code=True,
|
32 |
+
torch_dtype=torch.float16 if torch.cuda.is_available() else torch.float32,
|
33 |
+
device_map="auto"
|
34 |
+
)
|
35 |
+
modelo_llm = TextGenerationPipeline(
|
36 |
+
model=model,
|
37 |
+
tokenizer=tokenizer,
|
38 |
+
max_new_tokens=300,
|
39 |
+
temperature=0.5,
|
40 |
+
do_sample=True,
|
41 |
+
device=0 if torch.cuda.is_available() else -1
|
42 |
+
)
|
43 |
+
|
44 |
+
# === Frases prototipo para verificador semántico ===
|
45 |
+
frases_fisica = [
|
46 |
+
"Me golpeó con el puño cerrado", "Me pateó", "Me lanzó contra la pared",
|
47 |
+
"Me estranguló", "Me fracturó una costilla", "Me tiró al piso violentamente"
|
48 |
+
]
|
49 |
+
frases_sexual = [
|
50 |
+
"Me obligó a tener relaciones sexuales", "Me tocó sin consentimiento",
|
51 |
+
"Me violó", "Me forzó a tener sexo", "Me agredió sexualmente"
|
52 |
+
]
|
53 |
+
embeds_fisica = modelo_vector.encode(frases_fisica)
|
54 |
+
embeds_sexual = modelo_vector.encode(frases_sexual)
|
55 |
+
|
56 |
+
# === FUNCIÓN PRINCIPAL ===
|
57 |
+
def predecir_con_recomendacion(edad, genero, hijos, convivencia_agresor, consumo_sustancias, apoyo_familiar, descripcion):
|
58 |
+
# Codificar variables
|
59 |
+
vector_tabular = np.array([
|
60 |
+
int(edad),
|
61 |
+
int(hijos),
|
62 |
+
codificadores["genero"].transform([genero])[0],
|
63 |
+
0, 0, 0,
|
64 |
+
codificadores["convivencia_agresor"].transform([convivencia_agresor])[0],
|
65 |
+
codificadores["consumo_sustancias"].transform([consumo_sustancias])[0],
|
66 |
+
codificadores["apoyo_familiar"].transform([apoyo_familiar])[0]
|
67 |
+
])
|
68 |
+
|
69 |
+
# Vectorizar descripción
|
70 |
+
vector_desc = modelo_vector.encode([descripcion])[0]
|
71 |
+
entrada = np.concatenate([vector_tabular, vector_desc])
|
72 |
+
|
73 |
+
# Predicciones
|
74 |
+
riesgo_cod = modelo_riesgo.predict([entrada])[0]
|
75 |
+
tipo_violencia_cod = modelo_violencia.predict([entrada])[0]
|
76 |
+
tipo_medida_cod = modelo_medida.predict([entrada])[0]
|
77 |
+
|
78 |
+
# Decodificar
|
79 |
+
riesgo = codificadores["riesgo"].inverse_transform([riesgo_cod])[0]
|
80 |
+
tipo_violencia = codificadores["tipo_violencia"].inverse_transform([tipo_violencia_cod])[0]
|
81 |
+
tipo_medida = codificadores["tipo_medida"].inverse_transform([tipo_medida_cod])[0]
|
82 |
+
|
83 |
+
# Verificador semántico
|
84 |
+
emb_desc = modelo_vector.encode(descripcion)
|
85 |
+
sim_fisica = max(util.cos_sim(emb_desc, embeds_fisica)[0])
|
86 |
+
sim_sexual = max(util.cos_sim(emb_desc, embeds_sexual)[0])
|
87 |
+
if sim_fisica > 0.7:
|
88 |
+
tipo_violencia = "física"
|
89 |
+
elif sim_sexual > 0.7:
|
90 |
+
tipo_violencia = "sexual"
|
91 |
+
|
92 |
+
# PROMPT legal
|
93 |
+
prompt = f"""[INSTRUCCIÓN]
|
94 |
+
Como asistente legal, tu tarea es determinar qué medida de protección debe aplicarse en un caso de violencia intrafamiliar, de acuerdo al Artículo 5 de la Ley 575 de 2000 (modificado por la Ley 1257 de 2008 y la Ley 2126 de 2021).
|
95 |
+
|
96 |
+
[CASO]
|
97 |
+
Tipo de violencia: {tipo_violencia}
|
98 |
+
Nivel de riesgo: {riesgo}
|
99 |
+
Tipo de medida cautelar: {tipo_medida}
|
100 |
+
Descripción del caso: {descripcion}
|
101 |
+
|
102 |
+
[OBJETIVO]
|
103 |
+
Con base en la descripción del caso y la ley, indica:
|
104 |
+
- Qué literal(es) del Artículo 5 (a-n) deben aplicarse.
|
105 |
+
- Justifica legalmente tu elección con argumentos claros y precisos.
|
106 |
+
|
107 |
+
[RESPUESTA]
|
108 |
+
"""
|
109 |
+
|
110 |
+
respuesta = modelo_llm(prompt, max_new_tokens=350, temperature=0.5)[0]["generated_text"]
|
111 |
+
razonamiento = respuesta.split("[RESPUESTA]")[-1].strip()
|
112 |
+
|
113 |
+
return tipo_violencia, riesgo, tipo_medida, razonamiento
|
114 |
+
|
115 |
+
# === Gradio UI ===
|
116 |
+
gr.Interface(
|
117 |
+
fn=predecir_con_recomendacion,
|
118 |
+
inputs=[
|
119 |
+
gr.Slider(18, 65, value=30, label="Edad"),
|
120 |
+
gr.Radio(["F", "M"], label="Género"),
|
121 |
+
gr.Slider(0, 5, step=1, value=1, label="Número de hijos"),
|
122 |
+
gr.Radio(["sí", "no"], label="¿Convive con el agresor?"),
|
123 |
+
gr.Radio(["sí", "no"], label="¿Hay consumo de sustancias?"),
|
124 |
+
gr.Radio(["sí", "no"], label="¿Tiene apoyo familiar?"),
|
125 |
+
gr.Textbox(lines=4, label="Descripción del caso")
|
126 |
+
],
|
127 |
+
outputs=[
|
128 |
+
gr.Textbox(label="🛑 Tipo de violencia predicho"),
|
129 |
+
gr.Textbox(label="⚠️ Nivel de riesgo"),
|
130 |
+
gr.Textbox(label="🧾 Tipo de medida cautelar"),
|
131 |
+
gr.Textbox(label="📜 Recomendación legal razonada")
|
132 |
+
],
|
133 |
+
title="LEGALFAMI – Asistente Legal con Razonamiento Jurídico",
|
134 |
+
description="Predice tipo de violencia, nivel de riesgo y medida cautelar según Ley 575 Artículo 5, y recomienda la acción legal correspondiente.",
|
135 |
+
theme="default"
|
136 |
+
).launch()
|
requirements.txt
ADDED
@@ -0,0 +1,20 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
# Interfaz
|
2 |
+
gradio>=4.17.0
|
3 |
+
|
4 |
+
# Modelos y NLP
|
5 |
+
transformers>=4.39.0
|
6 |
+
sentence-transformers>=2.2.2
|
7 |
+
sentencepiece>=0.1.99
|
8 |
+
|
9 |
+
# ML clásico
|
10 |
+
scikit-learn>=1.3.0
|
11 |
+
pandas>=1.5.3
|
12 |
+
numpy>=1.24.3
|
13 |
+
joblib>=1.3.2
|
14 |
+
|
15 |
+
# Backend de deep learning
|
16 |
+
torch>=2.1.0
|
17 |
+
|
18 |
+
# Adicionales recomendados para compatibilidad con modelos pesados
|
19 |
+
accelerate>=0.21.0
|
20 |
+
safetensors>=0.3.3
|