Delete app.py
Browse files
app.py
DELETED
@@ -1,136 +0,0 @@
|
|
1 |
-
# -*- coding: utf-8 -*-
|
2 |
-
"""app.ipynb
|
3 |
-
|
4 |
-
Automatically generated by Colab.
|
5 |
-
|
6 |
-
Original file is located at
|
7 |
-
https://colab.research.google.com/drive/1e3y3OTjQnNFZ7FLgs2elviYcG7ptj2fI
|
8 |
-
"""
|
9 |
-
|
10 |
-
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
|
11 |
-
from sentence_transformers import SentenceTransformer, util
|
12 |
-
import numpy as np
|
13 |
-
import joblib
|
14 |
-
import torch
|
15 |
-
import gradio as gr
|
16 |
-
from transformers import TextGenerationPipeline
|
17 |
-
|
18 |
-
# === Cargar modelos entrenados ===
|
19 |
-
modelo_riesgo = joblib.load("modelo_riesgo.pkl")
|
20 |
-
modelo_violencia = joblib.load("modelo_tipo_violencia.pkl")
|
21 |
-
modelo_medida = joblib.load("modelo_tipo_medida.pkl")
|
22 |
-
codificadores = joblib.load("codificadores_label_encoder.pkl")
|
23 |
-
modelo_vector = SentenceTransformer("Snowflake/snowflake-arctic-embed-xs")
|
24 |
-
|
25 |
-
# === Cargar modelo de lenguaje OpenHermes-2.5 ===
|
26 |
-
model_id = "teknium/OpenHermes-2.5-Mistral-7B"
|
27 |
-
|
28 |
-
tokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True)
|
29 |
-
model = AutoModelForCausalLM.from_pretrained(
|
30 |
-
model_id,
|
31 |
-
trust_remote_code=True,
|
32 |
-
torch_dtype=torch.float16 if torch.cuda.is_available() else torch.float32,
|
33 |
-
device_map="auto"
|
34 |
-
)
|
35 |
-
modelo_llm = TextGenerationPipeline(
|
36 |
-
model=model,
|
37 |
-
tokenizer=tokenizer,
|
38 |
-
max_new_tokens=300,
|
39 |
-
temperature=0.5,
|
40 |
-
do_sample=True,
|
41 |
-
device=0 if torch.cuda.is_available() else -1
|
42 |
-
)
|
43 |
-
|
44 |
-
# === Frases prototipo para verificador semántico ===
|
45 |
-
frases_fisica = [
|
46 |
-
"Me golpeó con el puño cerrado", "Me pateó", "Me lanzó contra la pared",
|
47 |
-
"Me estranguló", "Me fracturó una costilla", "Me tiró al piso violentamente"
|
48 |
-
]
|
49 |
-
frases_sexual = [
|
50 |
-
"Me obligó a tener relaciones sexuales", "Me tocó sin consentimiento",
|
51 |
-
"Me violó", "Me forzó a tener sexo", "Me agredió sexualmente"
|
52 |
-
]
|
53 |
-
embeds_fisica = modelo_vector.encode(frases_fisica)
|
54 |
-
embeds_sexual = modelo_vector.encode(frases_sexual)
|
55 |
-
|
56 |
-
# === FUNCIÓN PRINCIPAL ===
|
57 |
-
def predecir_con_recomendacion(edad, genero, hijos, convivencia_agresor, consumo_sustancias, apoyo_familiar, descripcion):
|
58 |
-
# Codificar variables
|
59 |
-
vector_tabular = np.array([
|
60 |
-
int(edad),
|
61 |
-
int(hijos),
|
62 |
-
codificadores["genero"].transform([genero])[0],
|
63 |
-
0, 0, 0,
|
64 |
-
codificadores["convivencia_agresor"].transform([convivencia_agresor])[0],
|
65 |
-
codificadores["consumo_sustancias"].transform([consumo_sustancias])[0],
|
66 |
-
codificadores["apoyo_familiar"].transform([apoyo_familiar])[0]
|
67 |
-
])
|
68 |
-
|
69 |
-
# Vectorizar descripción
|
70 |
-
vector_desc = modelo_vector.encode([descripcion])[0]
|
71 |
-
entrada = np.concatenate([vector_tabular, vector_desc])
|
72 |
-
|
73 |
-
# Predicciones
|
74 |
-
riesgo_cod = modelo_riesgo.predict([entrada])[0]
|
75 |
-
tipo_violencia_cod = modelo_violencia.predict([entrada])[0]
|
76 |
-
tipo_medida_cod = modelo_medida.predict([entrada])[0]
|
77 |
-
|
78 |
-
# Decodificar
|
79 |
-
riesgo = codificadores["riesgo"].inverse_transform([riesgo_cod])[0]
|
80 |
-
tipo_violencia = codificadores["tipo_violencia"].inverse_transform([tipo_violencia_cod])[0]
|
81 |
-
tipo_medida = codificadores["tipo_medida"].inverse_transform([tipo_medida_cod])[0]
|
82 |
-
|
83 |
-
# Verificador semántico
|
84 |
-
emb_desc = modelo_vector.encode(descripcion)
|
85 |
-
sim_fisica = max(util.cos_sim(emb_desc, embeds_fisica)[0])
|
86 |
-
sim_sexual = max(util.cos_sim(emb_desc, embeds_sexual)[0])
|
87 |
-
if sim_fisica > 0.7:
|
88 |
-
tipo_violencia = "física"
|
89 |
-
elif sim_sexual > 0.7:
|
90 |
-
tipo_violencia = "sexual"
|
91 |
-
|
92 |
-
# PROMPT legal
|
93 |
-
prompt = f"""[INSTRUCCIÓN]
|
94 |
-
Como asistente legal, tu tarea es determinar qué medida de protección debe aplicarse en un caso de violencia intrafamiliar, de acuerdo al Artículo 5 de la Ley 575 de 2000 (modificado por la Ley 1257 de 2008 y la Ley 2126 de 2021).
|
95 |
-
|
96 |
-
[CASO]
|
97 |
-
Tipo de violencia: {tipo_violencia}
|
98 |
-
Nivel de riesgo: {riesgo}
|
99 |
-
Tipo de medida cautelar: {tipo_medida}
|
100 |
-
Descripción del caso: {descripcion}
|
101 |
-
|
102 |
-
[OBJETIVO]
|
103 |
-
Con base en la descripción del caso y la ley, indica:
|
104 |
-
- Qué literal(es) del Artículo 5 (a-n) deben aplicarse.
|
105 |
-
- Justifica legalmente tu elección con argumentos claros y precisos.
|
106 |
-
|
107 |
-
[RESPUESTA]
|
108 |
-
"""
|
109 |
-
|
110 |
-
respuesta = modelo_llm(prompt, max_new_tokens=350, temperature=0.5)[0]["generated_text"]
|
111 |
-
razonamiento = respuesta.split("[RESPUESTA]")[-1].strip()
|
112 |
-
|
113 |
-
return tipo_violencia, riesgo, tipo_medida, razonamiento
|
114 |
-
|
115 |
-
# === Gradio UI ===
|
116 |
-
gr.Interface(
|
117 |
-
fn=predecir_con_recomendacion,
|
118 |
-
inputs=[
|
119 |
-
gr.Slider(18, 65, value=30, label="Edad"),
|
120 |
-
gr.Radio(["F", "M"], label="Género"),
|
121 |
-
gr.Slider(0, 5, step=1, value=1, label="Número de hijos"),
|
122 |
-
gr.Radio(["sí", "no"], label="¿Convive con el agresor?"),
|
123 |
-
gr.Radio(["sí", "no"], label="¿Hay consumo de sustancias?"),
|
124 |
-
gr.Radio(["sí", "no"], label="¿Tiene apoyo familiar?"),
|
125 |
-
gr.Textbox(lines=4, label="Descripción del caso")
|
126 |
-
],
|
127 |
-
outputs=[
|
128 |
-
gr.Textbox(label="🛑 Tipo de violencia predicho"),
|
129 |
-
gr.Textbox(label="⚠️ Nivel de riesgo"),
|
130 |
-
gr.Textbox(label="🧾 Tipo de medida cautelar"),
|
131 |
-
gr.Textbox(label="📜 Recomendación legal razonada")
|
132 |
-
],
|
133 |
-
title="LEGALFAMI – Asistente Legal con Razonamiento Jurídico",
|
134 |
-
description="Predice tipo de violencia, nivel de riesgo y medida cautelar según Ley 575 Artículo 5, y recomienda la acción legal correspondiente.",
|
135 |
-
theme="default"
|
136 |
-
).launch()
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|