Cambios yolo en gpu
This commit is contained in:
parent
6bc9a5cb44
commit
aa2132f3cf
346
.gitignore
vendored
346
.gitignore
vendored
@ -1,174 +1,174 @@
|
||||
# ---> Python
|
||||
# Byte-compiled / optimized / DLL files
|
||||
__pycache__/
|
||||
*.py[cod]
|
||||
*$py.class
|
||||
|
||||
# C extensions
|
||||
*.so
|
||||
|
||||
# Distribution / packaging
|
||||
.Python
|
||||
build/
|
||||
develop-eggs/
|
||||
dist/
|
||||
downloads/
|
||||
eggs/
|
||||
.eggs/
|
||||
lib/
|
||||
lib64/
|
||||
parts/
|
||||
sdist/
|
||||
var/
|
||||
wheels/
|
||||
share/python-wheels/
|
||||
*.egg-info/
|
||||
.installed.cfg
|
||||
*.egg
|
||||
MANIFEST
|
||||
|
||||
# PyInstaller
|
||||
# Usually these files are written by a python script from a template
|
||||
# before PyInstaller builds the exe, so as to inject date/other infos into it.
|
||||
*.manifest
|
||||
*.spec
|
||||
|
||||
# Installer logs
|
||||
pip-log.txt
|
||||
pip-delete-this-directory.txt
|
||||
|
||||
# Unit test / coverage reports
|
||||
htmlcov/
|
||||
.tox/
|
||||
.nox/
|
||||
.coverage
|
||||
.coverage.*
|
||||
.cache
|
||||
nosetests.xml
|
||||
coverage.xml
|
||||
*.cover
|
||||
*.py,cover
|
||||
.hypothesis/
|
||||
.pytest_cache/
|
||||
cover/
|
||||
|
||||
# Translations
|
||||
*.mo
|
||||
*.pot
|
||||
|
||||
# Django stuff:
|
||||
*.log
|
||||
local_settings.py
|
||||
db.sqlite3
|
||||
db.sqlite3-journal
|
||||
|
||||
# Flask stuff:
|
||||
instance/
|
||||
.webassets-cache
|
||||
|
||||
# Scrapy stuff:
|
||||
.scrapy
|
||||
|
||||
# Sphinx documentation
|
||||
docs/_build/
|
||||
|
||||
# PyBuilder
|
||||
.pybuilder/
|
||||
target/
|
||||
|
||||
# Jupyter Notebook
|
||||
.ipynb_checkpoints
|
||||
|
||||
# IPython
|
||||
profile_default/
|
||||
ipython_config.py
|
||||
|
||||
# pyenv
|
||||
# For a library or package, you might want to ignore these files since the code is
|
||||
# intended to run in multiple environments; otherwise, check them in:
|
||||
# .python-version
|
||||
|
||||
# pipenv
|
||||
# According to pypa/pipenv#598, it is recommended to include Pipfile.lock in version control.
|
||||
# However, in case of collaboration, if having platform-specific dependencies or dependencies
|
||||
# having no cross-platform support, pipenv may install dependencies that don't work, or not
|
||||
# install all needed dependencies.
|
||||
#Pipfile.lock
|
||||
|
||||
# poetry
|
||||
# Similar to Pipfile.lock, it is generally recommended to include poetry.lock in version control.
|
||||
# This is especially recommended for binary packages to ensure reproducibility, and is more
|
||||
# commonly ignored for libraries.
|
||||
# https://python-poetry.org/docs/basic-usage/#commit-your-poetrylock-file-to-version-control
|
||||
#poetry.lock
|
||||
|
||||
# pdm
|
||||
# Similar to Pipfile.lock, it is generally recommended to include pdm.lock in version control.
|
||||
#pdm.lock
|
||||
# pdm stores project-wide configurations in .pdm.toml, but it is recommended to not include it
|
||||
# in version control.
|
||||
# https://pdm.fming.dev/#use-with-ide
|
||||
.pdm.toml
|
||||
|
||||
# PEP 582; used by e.g. github.com/David-OConnor/pyflow and github.com/pdm-project/pdm
|
||||
__pypackages__/
|
||||
|
||||
# Celery stuff
|
||||
celerybeat-schedule
|
||||
celerybeat.pid
|
||||
|
||||
# SageMath parsed files
|
||||
*.sage.py
|
||||
|
||||
# Environments
|
||||
.env
|
||||
.venv
|
||||
env/
|
||||
venv/
|
||||
ENV/
|
||||
env.bak/
|
||||
venv.bak/
|
||||
|
||||
# Spyder project settings
|
||||
.spyderproject
|
||||
.spyproject
|
||||
|
||||
# Rope project settings
|
||||
.ropeproject
|
||||
|
||||
# mkdocs documentation
|
||||
/site
|
||||
|
||||
# mypy
|
||||
.mypy_cache/
|
||||
.dmypy.json
|
||||
dmypy.json
|
||||
|
||||
# Pyre type checker
|
||||
.pyre/
|
||||
|
||||
# pytype static type analyzer
|
||||
.pytype/
|
||||
|
||||
# Cython debug symbols
|
||||
cython_debug/
|
||||
|
||||
# PyCharm
|
||||
# JetBrains specific template is maintained in a separate JetBrains.gitignore that can
|
||||
# be found at https://github.com/github/gitignore/blob/main/Global/JetBrains.gitignore
|
||||
# and can be added to the global gitignore or merged into this file. For a more nuclear
|
||||
# option (not recommended) you can uncomment the following to ignore the entire idea folder.
|
||||
#.idea/
|
||||
|
||||
|
||||
# ────────────────────────────────────────────────────────
|
||||
# ENTORNO VIRTUAL DEL PROYECTO
|
||||
# ────────────────────────────────────────────────────────
|
||||
ia_env/
|
||||
|
||||
# ────────────────────────────────────────────────────────
|
||||
# MODELOS DE IA (Límite de GitHub: 100 MB)
|
||||
# ────────────────────────────────────────────────────────
|
||||
|
||||
*.pt
|
||||
# ---> Python
|
||||
# Byte-compiled / optimized / DLL files
|
||||
__pycache__/
|
||||
*.py[cod]
|
||||
*$py.class
|
||||
|
||||
# C extensions
|
||||
*.so
|
||||
|
||||
# Distribution / packaging
|
||||
.Python
|
||||
build/
|
||||
develop-eggs/
|
||||
dist/
|
||||
downloads/
|
||||
eggs/
|
||||
.eggs/
|
||||
lib/
|
||||
lib64/
|
||||
parts/
|
||||
sdist/
|
||||
var/
|
||||
wheels/
|
||||
share/python-wheels/
|
||||
*.egg-info/
|
||||
.installed.cfg
|
||||
*.egg
|
||||
MANIFEST
|
||||
|
||||
# PyInstaller
|
||||
# Usually these files are written by a python script from a template
|
||||
# before PyInstaller builds the exe, so as to inject date/other infos into it.
|
||||
*.manifest
|
||||
*.spec
|
||||
|
||||
# Installer logs
|
||||
pip-log.txt
|
||||
pip-delete-this-directory.txt
|
||||
|
||||
# Unit test / coverage reports
|
||||
htmlcov/
|
||||
.tox/
|
||||
.nox/
|
||||
.coverage
|
||||
.coverage.*
|
||||
.cache
|
||||
nosetests.xml
|
||||
coverage.xml
|
||||
*.cover
|
||||
*.py,cover
|
||||
.hypothesis/
|
||||
.pytest_cache/
|
||||
cover/
|
||||
|
||||
# Translations
|
||||
*.mo
|
||||
*.pot
|
||||
|
||||
# Django stuff:
|
||||
*.log
|
||||
local_settings.py
|
||||
db.sqlite3
|
||||
db.sqlite3-journal
|
||||
|
||||
# Flask stuff:
|
||||
instance/
|
||||
.webassets-cache
|
||||
|
||||
# Scrapy stuff:
|
||||
.scrapy
|
||||
|
||||
# Sphinx documentation
|
||||
docs/_build/
|
||||
|
||||
# PyBuilder
|
||||
.pybuilder/
|
||||
target/
|
||||
|
||||
# Jupyter Notebook
|
||||
.ipynb_checkpoints
|
||||
|
||||
# IPython
|
||||
profile_default/
|
||||
ipython_config.py
|
||||
|
||||
# pyenv
|
||||
# For a library or package, you might want to ignore these files since the code is
|
||||
# intended to run in multiple environments; otherwise, check them in:
|
||||
# .python-version
|
||||
|
||||
# pipenv
|
||||
# According to pypa/pipenv#598, it is recommended to include Pipfile.lock in version control.
|
||||
# However, in case of collaboration, if having platform-specific dependencies or dependencies
|
||||
# having no cross-platform support, pipenv may install dependencies that don't work, or not
|
||||
# install all needed dependencies.
|
||||
#Pipfile.lock
|
||||
|
||||
# poetry
|
||||
# Similar to Pipfile.lock, it is generally recommended to include poetry.lock in version control.
|
||||
# This is especially recommended for binary packages to ensure reproducibility, and is more
|
||||
# commonly ignored for libraries.
|
||||
# https://python-poetry.org/docs/basic-usage/#commit-your-poetrylock-file-to-version-control
|
||||
#poetry.lock
|
||||
|
||||
# pdm
|
||||
# Similar to Pipfile.lock, it is generally recommended to include pdm.lock in version control.
|
||||
#pdm.lock
|
||||
# pdm stores project-wide configurations in .pdm.toml, but it is recommended to not include it
|
||||
# in version control.
|
||||
# https://pdm.fming.dev/#use-with-ide
|
||||
.pdm.toml
|
||||
|
||||
# PEP 582; used by e.g. github.com/David-OConnor/pyflow and github.com/pdm-project/pdm
|
||||
__pypackages__/
|
||||
|
||||
# Celery stuff
|
||||
celerybeat-schedule
|
||||
celerybeat.pid
|
||||
|
||||
# SageMath parsed files
|
||||
*.sage.py
|
||||
|
||||
# Environments
|
||||
.env
|
||||
.venv
|
||||
env/
|
||||
venv/
|
||||
ENV/
|
||||
env.bak/
|
||||
venv.bak/
|
||||
|
||||
# Spyder project settings
|
||||
.spyderproject
|
||||
.spyproject
|
||||
|
||||
# Rope project settings
|
||||
.ropeproject
|
||||
|
||||
# mkdocs documentation
|
||||
/site
|
||||
|
||||
# mypy
|
||||
.mypy_cache/
|
||||
.dmypy.json
|
||||
dmypy.json
|
||||
|
||||
# Pyre type checker
|
||||
.pyre/
|
||||
|
||||
# pytype static type analyzer
|
||||
.pytype/
|
||||
|
||||
# Cython debug symbols
|
||||
cython_debug/
|
||||
|
||||
# PyCharm
|
||||
# JetBrains specific template is maintained in a separate JetBrains.gitignore that can
|
||||
# be found at https://github.com/github/gitignore/blob/main/Global/JetBrains.gitignore
|
||||
# and can be added to the global gitignore or merged into this file. For a more nuclear
|
||||
# option (not recommended) you can uncomment the following to ignore the entire idea folder.
|
||||
#.idea/
|
||||
|
||||
|
||||
# ────────────────────────────────────────────────────────
|
||||
# ENTORNO VIRTUAL DEL PROYECTO
|
||||
# ────────────────────────────────────────────────────────
|
||||
ia_env/
|
||||
|
||||
# ────────────────────────────────────────────────────────
|
||||
# MODELOS DE IA (Límite de GitHub: 100 MB)
|
||||
# ────────────────────────────────────────────────────────
|
||||
|
||||
*.pt
|
||||
*.onnx
|
||||
122
README.md
122
README.md
@ -1,62 +1,62 @@
|
||||
# Sistema de Identificación y Seguimiento Inteligente
|
||||
|
||||
Este repositorio contiene la arquitectura modular para el seguimiento de personas en múltiples cámaras (Re-ID) y reconocimiento facial asíncrono.
|
||||
|
||||
## Arquitectura del Proyecto
|
||||
El sistema está dividido en tres módulos principales para garantizar la separación de responsabilidades:
|
||||
* `seguimiento2.py`: Motor matemático de Tracking (Kalman + YOLO) y Re-Identificación (OSNet).
|
||||
* `reconocimiento2.py`: Motor de biometría facial (YuNet + ArcFace) y síntesis de audio (Edge-TTS).
|
||||
* `main_fusion.py`: Orquestador principal que fusiona ambos motores mediante procesamiento multihilo.
|
||||
|
||||
## Requisitos Previos
|
||||
1. **Python 3.8 - 3.11** instalado en el sistema.
|
||||
2. **Reproductor MPV** instalado y agregado al PATH del sistema (requerido para el motor de audio sin bloqueos).
|
||||
* *Windows:* Descargar de la página oficial o usar `scoop install mpv`.
|
||||
* *Linux:* `sudo apt install mpv`
|
||||
* *Mac:* `brew install mpv`
|
||||
|
||||
## Guía de Instalación Rápida
|
||||
|
||||
**1. Clonar el repositorio**
|
||||
Abre tu terminal y clona este proyecto:
|
||||
```bash
|
||||
git clone <URL_DE_TU_REPOSITORIO_GITEA>
|
||||
cd IdentificacionIA´´´
|
||||
|
||||
**2. Crear un Entorno Virtual (¡Importante!)
|
||||
Para evitar conflictos de librerías, crea un entorno virtual limpio dentro de la carpeta del proyecto:
|
||||
|
||||
python -m venv venv
|
||||
|
||||
|
||||
3. Activar el Entorno Virtual
|
||||
|
||||
En Windows:
|
||||
.\venv\Scripts\activate
|
||||
|
||||
En Mac/Linux:
|
||||
|
||||
source venv/bin/activate
|
||||
(Sabrás que está activo si ves un (venv) al inicio de tu línea de comandos).
|
||||
|
||||
4. Instalar Dependencias
|
||||
Con el entorno activado, instala todas las librerías necesarias:
|
||||
|
||||
pip install -r requirements.txt
|
||||
|
||||
|
||||
## Archivos y Carpetas Necesarias
|
||||
|
||||
yolov8n.pt (Detector de personas)
|
||||
|
||||
osnet_x0_25_msmt17.onnx (Extractor de características de ropa)
|
||||
|
||||
face_detection_yunet_2023mar.onnx (Detector facial rápido)
|
||||
|
||||
Además, debes tener la carpeta db_institucion con las fotografías de los rostros a reconocer.
|
||||
|
||||
|
||||
## Ejecución
|
||||
Para arrancar el sistema completo con interfaz gráfica y audio, ejecuta:
|
||||
|
||||
# Sistema de Identificación y Seguimiento Inteligente
|
||||
|
||||
Este repositorio contiene la arquitectura modular para el seguimiento de personas en múltiples cámaras (Re-ID) y reconocimiento facial asíncrono.
|
||||
|
||||
## Arquitectura del Proyecto
|
||||
El sistema está dividido en tres módulos principales para garantizar la separación de responsabilidades:
|
||||
* `seguimiento2.py`: Motor matemático de Tracking (Kalman + YOLO) y Re-Identificación (OSNet).
|
||||
* `reconocimiento2.py`: Motor de biometría facial (YuNet + ArcFace) y síntesis de audio (Edge-TTS).
|
||||
* `main_fusion.py`: Orquestador principal que fusiona ambos motores mediante procesamiento multihilo.
|
||||
|
||||
## Requisitos Previos
|
||||
1. **Python 3.8 - 3.11** instalado en el sistema.
|
||||
2. **Reproductor MPV** instalado y agregado al PATH del sistema (requerido para el motor de audio sin bloqueos).
|
||||
* *Windows:* Descargar de la página oficial o usar `scoop install mpv`.
|
||||
* *Linux:* `sudo apt install mpv`
|
||||
* *Mac:* `brew install mpv`
|
||||
|
||||
## Guía de Instalación Rápida
|
||||
|
||||
**1. Clonar el repositorio**
|
||||
Abre tu terminal y clona este proyecto:
|
||||
```bash
|
||||
git clone <URL_DE_TU_REPOSITORIO_GITEA>
|
||||
cd IdentificacionIA´´´
|
||||
|
||||
**2. Crear un Entorno Virtual (¡Importante!)
|
||||
Para evitar conflictos de librerías, crea un entorno virtual limpio dentro de la carpeta del proyecto:
|
||||
|
||||
python -m venv venv
|
||||
|
||||
|
||||
3. Activar el Entorno Virtual
|
||||
|
||||
En Windows:
|
||||
.\venv\Scripts\activate
|
||||
|
||||
En Mac/Linux:
|
||||
|
||||
source venv/bin/activate
|
||||
(Sabrás que está activo si ves un (venv) al inicio de tu línea de comandos).
|
||||
|
||||
4. Instalar Dependencias
|
||||
Con el entorno activado, instala todas las librerías necesarias:
|
||||
|
||||
pip install -r requirements.txt
|
||||
|
||||
|
||||
## Archivos y Carpetas Necesarias
|
||||
|
||||
yolov8n.pt (Detector de personas)
|
||||
|
||||
osnet_x0_25_msmt17.onnx (Extractor de características de ropa)
|
||||
|
||||
face_detection_yunet_2023mar.onnx (Detector facial rápido)
|
||||
|
||||
Además, debes tener la carpeta db_institucion con las fotografías de los rostros a reconocer.
|
||||
|
||||
|
||||
## Ejecución
|
||||
Para arrancar el sistema completo con interfaz gráfica y audio, ejecuta:
|
||||
|
||||
python main_fusion.py
|
||||
Binary file not shown.
Binary file not shown.
|
Before Width: | Height: | Size: 4.7 KiB |
Binary file not shown.
|
Before Width: | Height: | Size: 3.0 KiB |
@ -10,6 +10,9 @@ from queue import Queue
|
||||
from deepface import DeepFace
|
||||
from ultralytics import YOLO
|
||||
import warnings
|
||||
import torch
|
||||
device = "cuda" if torch.cuda.is_available() else "cpu"
|
||||
print(f"Usando dispositivo: {device}")
|
||||
|
||||
warnings.filterwarnings("ignore")
|
||||
|
||||
@ -295,7 +298,7 @@ def dibujar_track_fusion(frame_show, trk, global_mem):
|
||||
|
||||
def main():
|
||||
print("\nIniciando Sistema")
|
||||
model = YOLO("yolov8n.pt")
|
||||
model = YOLO("yolov8n.pt").to("cuda")
|
||||
global_mem = GlobalMemory()
|
||||
managers = {str(c): CamManager(c, global_mem) for c in SECUENCIA}
|
||||
cams = [CamStream(u) for u in URLS]
|
||||
@ -303,7 +306,7 @@ def main():
|
||||
for _ in range(2):
|
||||
threading.Thread(target=worker_rostros, args=(global_mem,), daemon=True).start()
|
||||
|
||||
cv2.namedWindow("SmartSoft", cv2.WINDOW_AUTOSIZE)
|
||||
cv2.namedWindow("SmartSoft", cv2.WINDOW_NORMAL)
|
||||
idx = 0
|
||||
|
||||
while True:
|
||||
|
||||
@ -1,110 +1,110 @@
|
||||
import cv2
|
||||
import os
|
||||
import json
|
||||
import numpy as np
|
||||
|
||||
# ⚡ Importamos tus motores exactos para no romper la simetría
|
||||
from reconocimiento2 import detectar_rostros_yunet, gestionar_vectores
|
||||
|
||||
def registrar_desde_webcam():
|
||||
print("\n" + "="*50)
|
||||
print("📸 MÓDULO DE REGISTRO LIMPIO (WEBCAM LOCAL)")
|
||||
print("Alinea tu rostro, mira a la cámara con buena luz.")
|
||||
print("Presiona [R] para capturar | [Q] para salir")
|
||||
print("="*50 + "\n")
|
||||
|
||||
DB_PATH = "db_institucion"
|
||||
CACHE_PATH = "cache_nombres"
|
||||
os.makedirs(DB_PATH, exist_ok=True)
|
||||
os.makedirs(CACHE_PATH, exist_ok=True)
|
||||
|
||||
# 0 es la cámara por defecto de tu laptop
|
||||
cap = cv2.VideoCapture(0)
|
||||
if not cap.isOpened():
|
||||
print("[!] Error: No se pudo abrir la webcam local.")
|
||||
return
|
||||
|
||||
while True:
|
||||
ret, frame = cap.read()
|
||||
if not ret: continue
|
||||
|
||||
# Espejamos la imagen para que actúe como un espejo natural
|
||||
frame = cv2.flip(frame, 1)
|
||||
display_frame = frame.copy()
|
||||
|
||||
# Usamos YuNet para garantizar que estamos capturando una cara válida
|
||||
faces = detectar_rostros_yunet(frame)
|
||||
mejor_rostro = None
|
||||
max_area = 0
|
||||
|
||||
for (fx, fy, fw, fh, score) in faces:
|
||||
area = fw * fh
|
||||
cv2.rectangle(display_frame, (fx, fy), (fx+fw, fy+fh), (0, 255, 0), 2)
|
||||
|
||||
if area > max_area:
|
||||
max_area = area
|
||||
h_frame, w_frame = frame.shape[:2]
|
||||
|
||||
# Mismo margen del 30% que requiere MTCNN para alinear correctamente
|
||||
m_x, m_y = int(fw * 0.30), int(fh * 0.30)
|
||||
y1 = max(0, fy - m_y)
|
||||
y2 = min(h_frame, fy + fh + m_y)
|
||||
x1 = max(0, fx - m_x)
|
||||
x2 = min(w_frame, fx + fw + m_x)
|
||||
|
||||
mejor_rostro = frame[y1:y2, x1:x2]
|
||||
|
||||
cv2.putText(display_frame, "Alineate y presiona [R]", (10, 30),
|
||||
cv2.FONT_HERSHEY_SIMPLEX, 0.7, (0, 255, 255), 2)
|
||||
cv2.imshow("Registro Webcam Local", display_frame)
|
||||
|
||||
key = cv2.waitKey(1) & 0xFF
|
||||
if key == ord('q'):
|
||||
break
|
||||
elif key == ord('r'):
|
||||
if mejor_rostro is not None and mejor_rostro.size > 0:
|
||||
cv2.imshow("Captura Congelada", mejor_rostro)
|
||||
cv2.waitKey(1)
|
||||
|
||||
print("\n--- NUEVO REGISTRO ---")
|
||||
nom = input("Escribe el nombre exacto de la persona: ").strip()
|
||||
|
||||
if nom:
|
||||
gen_input = input("¿Es Hombre (h) o Mujer (m)?: ").strip().lower()
|
||||
genero_guardado = "Woman" if gen_input == 'm' else "Man"
|
||||
|
||||
# 1. Guardamos la foto pura
|
||||
foto_path = os.path.join(DB_PATH, f"{nom}.jpg")
|
||||
cv2.imwrite(foto_path, mejor_rostro)
|
||||
|
||||
# 2. Actualizamos el caché de géneros sin usar IA
|
||||
ruta_generos = os.path.join(CACHE_PATH, "generos.json")
|
||||
dic_generos = {}
|
||||
if os.path.exists(ruta_generos):
|
||||
try:
|
||||
with open(ruta_generos, 'r') as f:
|
||||
dic_generos = json.load(f)
|
||||
except Exception: pass
|
||||
|
||||
dic_generos[nom] = genero_guardado
|
||||
with open(ruta_generos, 'w') as f:
|
||||
json.dump(dic_generos, f)
|
||||
|
||||
print(f"\n[OK] Foto guardada. Generando punto de gravedad matemático...")
|
||||
|
||||
# 3. Forzamos la creación del vector en la base de datos
|
||||
gestionar_vectores(actualizar=True)
|
||||
print(" Registro inyectado exitosamente en el sistema principal.")
|
||||
|
||||
else:
|
||||
print("[!] Registro cancelado por nombre vacío.")
|
||||
|
||||
cv2.destroyWindow("Captura Congelada")
|
||||
else:
|
||||
print("[!] No se detectó ningún rostro claro. Acércate más a la luz.")
|
||||
|
||||
cap.release()
|
||||
cv2.destroyAllWindows()
|
||||
|
||||
if __name__ == "__main__":
|
||||
import cv2
|
||||
import os
|
||||
import json
|
||||
import numpy as np
|
||||
|
||||
# ⚡ Importamos tus motores exactos para no romper la simetría
|
||||
from reconocimiento2 import detectar_rostros_yunet, gestionar_vectores
|
||||
|
||||
def registrar_desde_webcam():
|
||||
print("\n" + "="*50)
|
||||
print("📸 MÓDULO DE REGISTRO LIMPIO (WEBCAM LOCAL)")
|
||||
print("Alinea tu rostro, mira a la cámara con buena luz.")
|
||||
print("Presiona [R] para capturar | [Q] para salir")
|
||||
print("="*50 + "\n")
|
||||
|
||||
DB_PATH = "db_institucion"
|
||||
CACHE_PATH = "cache_nombres"
|
||||
os.makedirs(DB_PATH, exist_ok=True)
|
||||
os.makedirs(CACHE_PATH, exist_ok=True)
|
||||
|
||||
# 0 es la cámara por defecto de tu laptop
|
||||
cap = cv2.VideoCapture(0)
|
||||
if not cap.isOpened():
|
||||
print("[!] Error: No se pudo abrir la webcam local.")
|
||||
return
|
||||
|
||||
while True:
|
||||
ret, frame = cap.read()
|
||||
if not ret: continue
|
||||
|
||||
# Espejamos la imagen para que actúe como un espejo natural
|
||||
frame = cv2.flip(frame, 1)
|
||||
display_frame = frame.copy()
|
||||
|
||||
# Usamos YuNet para garantizar que estamos capturando una cara válida
|
||||
faces = detectar_rostros_yunet(frame)
|
||||
mejor_rostro = None
|
||||
max_area = 0
|
||||
|
||||
for (fx, fy, fw, fh, score) in faces:
|
||||
area = fw * fh
|
||||
cv2.rectangle(display_frame, (fx, fy), (fx+fw, fy+fh), (0, 255, 0), 2)
|
||||
|
||||
if area > max_area:
|
||||
max_area = area
|
||||
h_frame, w_frame = frame.shape[:2]
|
||||
|
||||
# Mismo margen del 30% que requiere MTCNN para alinear correctamente
|
||||
m_x, m_y = int(fw * 0.30), int(fh * 0.30)
|
||||
y1 = max(0, fy - m_y)
|
||||
y2 = min(h_frame, fy + fh + m_y)
|
||||
x1 = max(0, fx - m_x)
|
||||
x2 = min(w_frame, fx + fw + m_x)
|
||||
|
||||
mejor_rostro = frame[y1:y2, x1:x2]
|
||||
|
||||
cv2.putText(display_frame, "Alineate y presiona [R]", (10, 30),
|
||||
cv2.FONT_HERSHEY_SIMPLEX, 0.7, (0, 255, 255), 2)
|
||||
cv2.imshow("Registro Webcam Local", display_frame)
|
||||
|
||||
key = cv2.waitKey(1) & 0xFF
|
||||
if key == ord('q'):
|
||||
break
|
||||
elif key == ord('r'):
|
||||
if mejor_rostro is not None and mejor_rostro.size > 0:
|
||||
cv2.imshow("Captura Congelada", mejor_rostro)
|
||||
cv2.waitKey(1)
|
||||
|
||||
print("\n--- NUEVO REGISTRO ---")
|
||||
nom = input("Escribe el nombre exacto de la persona: ").strip()
|
||||
|
||||
if nom:
|
||||
gen_input = input("¿Es Hombre (h) o Mujer (m)?: ").strip().lower()
|
||||
genero_guardado = "Woman" if gen_input == 'm' else "Man"
|
||||
|
||||
# 1. Guardamos la foto pura
|
||||
foto_path = os.path.join(DB_PATH, f"{nom}.jpg")
|
||||
cv2.imwrite(foto_path, mejor_rostro)
|
||||
|
||||
# 2. Actualizamos el caché de géneros sin usar IA
|
||||
ruta_generos = os.path.join(CACHE_PATH, "generos.json")
|
||||
dic_generos = {}
|
||||
if os.path.exists(ruta_generos):
|
||||
try:
|
||||
with open(ruta_generos, 'r') as f:
|
||||
dic_generos = json.load(f)
|
||||
except Exception: pass
|
||||
|
||||
dic_generos[nom] = genero_guardado
|
||||
with open(ruta_generos, 'w') as f:
|
||||
json.dump(dic_generos, f)
|
||||
|
||||
print(f"\n[OK] Foto guardada. Generando punto de gravedad matemático...")
|
||||
|
||||
# 3. Forzamos la creación del vector en la base de datos
|
||||
gestionar_vectores(actualizar=True)
|
||||
print(" Registro inyectado exitosamente en el sistema principal.")
|
||||
|
||||
else:
|
||||
print("[!] Registro cancelado por nombre vacío.")
|
||||
|
||||
cv2.destroyWindow("Captura Congelada")
|
||||
else:
|
||||
print("[!] No se detectó ningún rostro claro. Acércate más a la luz.")
|
||||
|
||||
cap.release()
|
||||
cv2.destroyAllWindows()
|
||||
|
||||
if __name__ == "__main__":
|
||||
registrar_desde_webcam()
|
||||
@ -1,43 +1,43 @@
|
||||
import cv2
|
||||
import time
|
||||
from ultralytics import YOLO
|
||||
from seguimiento2 import GlobalMemory, CamManager, dibujar_track
|
||||
|
||||
def test_video(video_path):
|
||||
print(f"Iniciando Benchmark de Video: {video_path}")
|
||||
model = YOLO("yolov8n.pt")
|
||||
global_mem = GlobalMemory()
|
||||
manager = CamManager("TEST_CAM", global_mem)
|
||||
|
||||
cap = cv2.VideoCapture(video_path)
|
||||
cv2.namedWindow("Benchmark TT", cv2.WINDOW_AUTOSIZE)
|
||||
|
||||
while cap.isOpened():
|
||||
ret, frame = cap.read()
|
||||
if not ret: break
|
||||
|
||||
now = time.time()
|
||||
frame_show = cv2.resize(frame, (480, 270))
|
||||
|
||||
# Inferencia frame por frame sin hilos (sincrónico)
|
||||
res = model.predict(frame_show, conf=0.40, iou=0.50, classes=[0], verbose=False, imgsz=480, device='cpu')
|
||||
boxes = res[0].boxes.xyxy.cpu().numpy().tolist() if res[0].boxes else []
|
||||
|
||||
tracks = manager.update(boxes, frame_show, now, turno_activo=True)
|
||||
|
||||
for trk in tracks:
|
||||
if trk.time_since_update == 0:
|
||||
dibujar_track(frame_show, trk)
|
||||
|
||||
cv2.imshow("Benchmark TT", frame_show)
|
||||
|
||||
# Si presionas espacio se pausa, con 'q' sales
|
||||
key = cv2.waitKey(30) & 0xFF
|
||||
if key == ord('q'): break
|
||||
elif key == ord(' '): cv2.waitKey(-1)
|
||||
|
||||
cap.release()
|
||||
cv2.destroyAllWindows()
|
||||
|
||||
if __name__ == "__main__":
|
||||
import cv2
|
||||
import time
|
||||
from ultralytics import YOLO
|
||||
from seguimiento2 import GlobalMemory, CamManager, dibujar_track
|
||||
|
||||
def test_video(video_path):
|
||||
print(f"Iniciando Benchmark de Video: {video_path}")
|
||||
model = YOLO("yolov8n.pt")
|
||||
global_mem = GlobalMemory()
|
||||
manager = CamManager("TEST_CAM", global_mem)
|
||||
|
||||
cap = cv2.VideoCapture(video_path)
|
||||
cv2.namedWindow("Benchmark TT", cv2.WINDOW_AUTOSIZE)
|
||||
|
||||
while cap.isOpened():
|
||||
ret, frame = cap.read()
|
||||
if not ret: break
|
||||
|
||||
now = time.time()
|
||||
frame_show = cv2.resize(frame, (480, 270))
|
||||
|
||||
# Inferencia frame por frame sin hilos (sincrónico)
|
||||
res = model.predict(frame_show, conf=0.40, iou=0.50, classes=[0], verbose=False, imgsz=480, device='cpu')
|
||||
boxes = res[0].boxes.xyxy.cpu().numpy().tolist() if res[0].boxes else []
|
||||
|
||||
tracks = manager.update(boxes, frame_show, now, turno_activo=True)
|
||||
|
||||
for trk in tracks:
|
||||
if trk.time_since_update == 0:
|
||||
dibujar_track(frame_show, trk)
|
||||
|
||||
cv2.imshow("Benchmark TT", frame_show)
|
||||
|
||||
# Si presionas espacio se pausa, con 'q' sales
|
||||
key = cv2.waitKey(30) & 0xFF
|
||||
if key == ord('q'): break
|
||||
elif key == ord(' '): cv2.waitKey(-1)
|
||||
|
||||
cap.release()
|
||||
cv2.destroyAllWindows()
|
||||
|
||||
if __name__ == "__main__":
|
||||
test_video("video.mp4") # Pon aquí el nombre de tu video
|
||||
@ -1,465 +1,473 @@
|
||||
import os
|
||||
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '3'
|
||||
os.environ['CUDA_VISIBLE_DEVICES'] = '-1'
|
||||
|
||||
import cv2
|
||||
import numpy as np
|
||||
from deepface import DeepFace
|
||||
import pickle
|
||||
import time
|
||||
import threading
|
||||
import asyncio
|
||||
import edge_tts
|
||||
import subprocess
|
||||
from datetime import datetime
|
||||
import warnings
|
||||
import urllib.request
|
||||
|
||||
warnings.filterwarnings("ignore")
|
||||
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
# CONFIGURACIÓN
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
DB_PATH = "db_institucion"
|
||||
CACHE_PATH = "cache_nombres"
|
||||
VECTORS_FILE = "base_datos_rostros.pkl"
|
||||
TIMESTAMPS_FILE = "representaciones_timestamps.pkl"
|
||||
UMBRAL_SIM = 0.42 # Por encima → identificado. Por debajo → desconocido.
|
||||
COOLDOWN_TIME = 15 # Segundos entre saludos
|
||||
|
||||
USUARIO, PASSWORD, IP_DVR = "admin", "TCA200503", "192.168.1.244"
|
||||
RTSP_URL = f"rtsp://{USUARIO}:{PASSWORD}@{IP_DVR}:554/Streaming/Channels/702"
|
||||
|
||||
for path in [DB_PATH, CACHE_PATH]:
|
||||
os.makedirs(path, exist_ok=True)
|
||||
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
# YUNET — Detector facial rápido en CPU
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
YUNET_MODEL_PATH = "face_detection_yunet_2023mar.onnx"
|
||||
|
||||
if not os.path.exists(YUNET_MODEL_PATH):
|
||||
print(f"Descargando YuNet ({YUNET_MODEL_PATH})...")
|
||||
url = ("https://github.com/opencv/opencv_zoo/raw/main/models/"
|
||||
"face_detection_yunet/face_detection_yunet_2023mar.onnx")
|
||||
urllib.request.urlretrieve(url, YUNET_MODEL_PATH)
|
||||
print("YuNet descargado.")
|
||||
|
||||
# Detector estricto para ROIs grandes (persona cerca)
|
||||
detector_yunet = cv2.FaceDetectorYN.create(
|
||||
model=YUNET_MODEL_PATH, config="",
|
||||
input_size=(320, 320),
|
||||
score_threshold=0.70,
|
||||
nms_threshold=0.3,
|
||||
top_k=5000
|
||||
)
|
||||
|
||||
# Detector permisivo para ROIs pequeños (persona lejos)
|
||||
detector_yunet_lejano = cv2.FaceDetectorYN.create(
|
||||
model=YUNET_MODEL_PATH, config="",
|
||||
input_size=(320, 320),
|
||||
score_threshold=0.45,
|
||||
nms_threshold=0.3,
|
||||
top_k=5000
|
||||
)
|
||||
|
||||
def detectar_rostros_yunet(roi, lock=None):
|
||||
"""
|
||||
Elige automáticamente el detector según el tamaño del ROI.
|
||||
"""
|
||||
h_roi, w_roi = roi.shape[:2]
|
||||
area = w_roi * h_roi
|
||||
det = detector_yunet if area > 8000 else detector_yunet_lejano
|
||||
|
||||
try:
|
||||
if lock:
|
||||
with lock:
|
||||
det.setInputSize((w_roi, h_roi))
|
||||
_, faces = det.detect(roi)
|
||||
else:
|
||||
det.setInputSize((w_roi, h_roi))
|
||||
_, faces = det.detect(roi)
|
||||
except Exception:
|
||||
return []
|
||||
|
||||
if faces is None:
|
||||
return []
|
||||
|
||||
resultado = []
|
||||
for face in faces:
|
||||
try:
|
||||
fx, fy, fw, fh = map(int, face[:4])
|
||||
score = float(face[14]) if len(face) > 14 else 1.0
|
||||
resultado.append((fx, fy, fw, fh, score))
|
||||
except (ValueError, OverflowError, TypeError):
|
||||
continue
|
||||
return resultado
|
||||
|
||||
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
# SISTEMA DE AUDIO
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
def obtener_audios_humanos(genero):
|
||||
hora = datetime.now().hour
|
||||
es_mujer = genero.lower() == 'woman'
|
||||
suffix = "_m.mp3" if es_mujer else "_h.mp3"
|
||||
if 5 <= hora < 12:
|
||||
intro = "dias.mp3"
|
||||
elif 12 <= hora < 19:
|
||||
intro = "tarde.mp3"
|
||||
else:
|
||||
intro = "noches.mp3"
|
||||
cierre = ("fin_noche" if (hora >= 19 or hora < 5) else "fin_dia") + suffix
|
||||
return intro, cierre
|
||||
|
||||
|
||||
async def sintetizar_nombre(nombre, ruta):
|
||||
nombre_limpio = nombre.replace('_', ' ')
|
||||
try:
|
||||
comunicador = edge_tts.Communicate(nombre_limpio, "es-MX-DaliaNeural", rate="+10%")
|
||||
await comunicador.save(ruta)
|
||||
except Exception:
|
||||
pass
|
||||
|
||||
|
||||
def reproducir(archivo):
|
||||
if os.path.exists(archivo):
|
||||
subprocess.Popen(
|
||||
["mpv", "--no-video", "--volume=100", archivo],
|
||||
stdout=subprocess.DEVNULL,
|
||||
stderr=subprocess.DEVNULL
|
||||
)
|
||||
|
||||
|
||||
def hilo_bienvenida(nombre, genero):
|
||||
archivo_nombre = os.path.join(CACHE_PATH, f"nombre_{nombre}.mp3")
|
||||
|
||||
if not os.path.exists(archivo_nombre):
|
||||
try:
|
||||
asyncio.run(sintetizar_nombre(nombre, archivo_nombre))
|
||||
except Exception:
|
||||
pass
|
||||
|
||||
intro, cierre = obtener_audios_humanos(genero)
|
||||
|
||||
archivos = [f for f in [intro, archivo_nombre, cierre] if os.path.exists(f)]
|
||||
if archivos:
|
||||
subprocess.Popen(
|
||||
["mpv", "--no-video", "--volume=100"] + archivos,
|
||||
stdout=subprocess.DEVNULL,
|
||||
stderr=subprocess.DEVNULL
|
||||
)
|
||||
|
||||
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
# GESTIÓN DE BASE DE DATOS (AHORA CON RETINAFACE Y ALINEACIÓN)
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
def gestionar_vectores(actualizar=False):
|
||||
import json # ⚡ Asegúrate de tener importado json
|
||||
|
||||
vectores_actuales = {}
|
||||
if os.path.exists(VECTORS_FILE):
|
||||
try:
|
||||
with open(VECTORS_FILE, 'rb') as f:
|
||||
vectores_actuales = pickle.load(f)
|
||||
except Exception:
|
||||
vectores_actuales = {}
|
||||
|
||||
if not actualizar:
|
||||
return vectores_actuales
|
||||
|
||||
timestamps = {}
|
||||
if os.path.exists(TIMESTAMPS_FILE):
|
||||
try:
|
||||
with open(TIMESTAMPS_FILE, 'rb') as f:
|
||||
timestamps = pickle.load(f)
|
||||
except Exception:
|
||||
timestamps = {}
|
||||
|
||||
# ──────────────────────────────────────────────────────────
|
||||
# CARGA DEL CACHÉ DE GÉNEROS
|
||||
# ──────────────────────────────────────────────────────────
|
||||
ruta_generos = os.path.join(CACHE_PATH, "generos.json")
|
||||
dic_generos = {}
|
||||
if os.path.exists(ruta_generos):
|
||||
try:
|
||||
with open(ruta_generos, 'r') as f:
|
||||
dic_generos = json.load(f)
|
||||
except Exception:
|
||||
pass
|
||||
|
||||
print("\nACTUALIZANDO BASE DE DATOS (Alineación y Caché de Géneros)...")
|
||||
imagenes = [f for f in os.listdir(DB_PATH) if f.lower().endswith(('.jpg', '.png'))]
|
||||
nombres_en_disco = set()
|
||||
hubo_cambios = False
|
||||
cambio_generos = False # Bandera para saber si actualizamos el JSON
|
||||
|
||||
for archivo in imagenes:
|
||||
nombre_archivo = os.path.splitext(archivo)[0]
|
||||
ruta_img = os.path.join(DB_PATH, archivo)
|
||||
nombres_en_disco.add(nombre_archivo)
|
||||
|
||||
ts_actual = os.path.getmtime(ruta_img)
|
||||
ts_guardado = timestamps.get(nombre_archivo, 0)
|
||||
|
||||
# Si ya tenemos el vector pero NO tenemos su género en el JSON, forzamos el procesamiento
|
||||
falta_genero = nombre_archivo not in dic_generos
|
||||
|
||||
if nombre_archivo in vectores_actuales and ts_actual == ts_guardado and not falta_genero:
|
||||
continue
|
||||
|
||||
try:
|
||||
img_db = cv2.imread(ruta_img)
|
||||
lab = cv2.cvtColor(img_db, cv2.COLOR_BGR2LAB)
|
||||
l, a, b = cv2.split(lab)
|
||||
clahe = cv2.createCLAHE(clipLimit=2.0, tileGridSize=(8,8))
|
||||
l = clahe.apply(l)
|
||||
img_mejorada = cv2.cvtColor(cv2.merge((l, a, b)), cv2.COLOR_LAB2BGR)
|
||||
|
||||
# IA DE GÉNERO (Solo se ejecuta 1 vez por persona en toda la vida del sistema)
|
||||
if falta_genero:
|
||||
try:
|
||||
analisis = DeepFace.analyze(img_mejorada, actions=['gender'], enforce_detection=False)[0]
|
||||
dic_generos[nombre_archivo] = analisis.get('dominant_gender', 'Man')
|
||||
except Exception:
|
||||
dic_generos[nombre_archivo] = "Man" # Respaldo
|
||||
cambio_generos = True
|
||||
|
||||
# Extraemos el vector
|
||||
res = DeepFace.represent(
|
||||
img_path=img_mejorada,
|
||||
model_name="ArcFace",
|
||||
detector_backend="mtcnn",
|
||||
align=True,
|
||||
enforce_detection=True
|
||||
)
|
||||
emb = np.array(res[0]["embedding"], dtype=np.float32)
|
||||
|
||||
norma = np.linalg.norm(emb)
|
||||
if norma > 0:
|
||||
emb = emb / norma
|
||||
|
||||
vectores_actuales[nombre_archivo] = emb
|
||||
timestamps[nombre_archivo] = ts_actual
|
||||
hubo_cambios = True
|
||||
print(f" Procesado y alineado: {nombre_archivo} | Género: {dic_generos.get(nombre_archivo)}")
|
||||
|
||||
except Exception as e:
|
||||
print(f" Rostro no válido en '{archivo}', omitido. Error: {e}")
|
||||
|
||||
# Limpieza de eliminados
|
||||
for nombre in list(vectores_actuales.keys()):
|
||||
if nombre not in nombres_en_disco:
|
||||
del vectores_actuales[nombre]
|
||||
timestamps.pop(nombre, None)
|
||||
if nombre in dic_generos:
|
||||
del dic_generos[nombre]
|
||||
cambio_generos = True
|
||||
hubo_cambios = True
|
||||
print(f" Eliminado (sin foto): {nombre}")
|
||||
|
||||
# Guardado de la memoria
|
||||
if hubo_cambios:
|
||||
with open(VECTORS_FILE, 'wb') as f:
|
||||
pickle.dump(vectores_actuales, f)
|
||||
with open(TIMESTAMPS_FILE, 'wb') as f:
|
||||
pickle.dump(timestamps, f)
|
||||
|
||||
# Guardado del JSON de géneros si hubo descubrimientos nuevos
|
||||
if cambio_generos:
|
||||
with open(ruta_generos, 'w') as f:
|
||||
json.dump(dic_generos, f)
|
||||
|
||||
if hubo_cambios or cambio_generos:
|
||||
print(" Sincronización terminada.\n")
|
||||
else:
|
||||
print(" Sin cambios. Base de datos al día.\n")
|
||||
|
||||
return vectores_actuales
|
||||
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
# BÚSQUEDA BLINDADA (Similitud Coseno estricta)
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
def buscar_mejor_match(emb_consulta, base_datos):
|
||||
# ⚡ MAGIA 3: Normalización L2 del vector entrante
|
||||
norma = np.linalg.norm(emb_consulta)
|
||||
if norma > 0:
|
||||
emb_consulta = emb_consulta / norma
|
||||
|
||||
mejor_match, max_sim = None, -1.0
|
||||
for nombre, vec in base_datos.items():
|
||||
# Como ambos están normalizados, esto es Similitud Coseno pura (-1.0 a 1.0)
|
||||
sim = float(np.dot(emb_consulta, vec))
|
||||
if sim > max_sim:
|
||||
max_sim = sim
|
||||
mejor_match = nombre
|
||||
|
||||
return mejor_match, max_sim
|
||||
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
# LOOP DE PRUEBA Y REGISTRO (CON SIMETRÍA ESTRICTA)
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
def sistema_interactivo():
|
||||
base_datos = gestionar_vectores(actualizar=False)
|
||||
cap = cv2.VideoCapture(RTSP_URL)
|
||||
ultimo_saludo = 0
|
||||
persona_actual = None
|
||||
confirmaciones = 0
|
||||
|
||||
print("\n" + "=" * 50)
|
||||
print(" MÓDULO DE REGISTRO Y DEPURACIÓN ESTRICTO")
|
||||
print(" [R] Registrar nuevo rostro | [Q] Salir")
|
||||
print("=" * 50 + "\n")
|
||||
|
||||
faces_ultimo_frame = []
|
||||
|
||||
while True:
|
||||
ret, frame = cap.read()
|
||||
if not ret:
|
||||
time.sleep(2)
|
||||
cap.open(RTSP_URL)
|
||||
continue
|
||||
|
||||
h, w = frame.shape[:2]
|
||||
display_frame = frame.copy()
|
||||
tiempo_actual = time.time()
|
||||
|
||||
faces_raw = detectar_rostros_yunet(frame)
|
||||
faces_ultimo_frame = faces_raw
|
||||
|
||||
for (fx, fy, fw, fh, score_yunet) in faces_raw:
|
||||
fx = max(0, fx); fy = max(0, fy)
|
||||
fw = min(w - fx, fw); fh = min(h - fy, fh)
|
||||
if fw <= 0 or fh <= 0:
|
||||
continue
|
||||
|
||||
cv2.rectangle(display_frame, (fx, fy), (fx+fw, fy+fh), (255, 200, 0), 2)
|
||||
cv2.putText(display_frame, f"YN:{score_yunet:.2f}",
|
||||
(fx, fy - 25), cv2.FONT_HERSHEY_SIMPLEX, 0.45, (255, 200, 0), 1)
|
||||
|
||||
if (tiempo_actual - ultimo_saludo) <= COOLDOWN_TIME:
|
||||
continue
|
||||
|
||||
m = int(fw * 0.15)
|
||||
roi = frame[max(0, fy-m): min(h, fy+fh+m),
|
||||
max(0, fx-m): min(w, fx+fw+m)]
|
||||
|
||||
# 🛡️ FILTRO DE TAMAÑO FÍSICO
|
||||
if roi.size == 0 or roi.shape[0] < 40 or roi.shape[1] < 40:
|
||||
cv2.putText(display_frame, "muy pequeno",
|
||||
(fx, fy-10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 100, 255), 1)
|
||||
continue
|
||||
|
||||
# 🛡️ FILTRO DE NITIDEZ
|
||||
gray_roi = cv2.cvtColor(roi, cv2.COLOR_BGR2GRAY)
|
||||
nitidez = cv2.Laplacian(gray_roi, cv2.CV_64F).var()
|
||||
if nitidez < 50.0:
|
||||
cv2.putText(display_frame, f"blur({nitidez:.0f})",
|
||||
(fx, fy-10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 165, 255), 1)
|
||||
continue
|
||||
|
||||
# 🌙 SIMETRÍA 1: VISIÓN NOCTURNA (CLAHE) AL VIDEO EN VIVO
|
||||
try:
|
||||
lab = cv2.cvtColor(roi, cv2.COLOR_BGR2LAB)
|
||||
l, a, b = cv2.split(lab)
|
||||
clahe = cv2.createCLAHE(clipLimit=2.0, tileGridSize=(8,8))
|
||||
l = clahe.apply(l)
|
||||
roi_mejorado = cv2.cvtColor(cv2.merge((l, a, b)), cv2.COLOR_LAB2BGR)
|
||||
except Exception:
|
||||
roi_mejorado = roi # Respaldo de seguridad
|
||||
|
||||
# 🧠 SIMETRÍA 2: MOTOR MTCNN Y ALINEACIÓN (Igual que la Base de Datos)
|
||||
try:
|
||||
res = DeepFace.represent(
|
||||
img_path=roi_mejorado,
|
||||
model_name="ArcFace",
|
||||
detector_backend="mtcnn", # El mismo que en gestionar_vectores
|
||||
align=True, # Enderezamos la cara
|
||||
enforce_detection=True # Si MTCNN no ve cara clara, aborta
|
||||
)
|
||||
emb = np.array(res[0]["embedding"], dtype=np.float32)
|
||||
mejor_match, max_sim = buscar_mejor_match(emb, base_datos)
|
||||
|
||||
except Exception:
|
||||
# MTCNN abortó porque la cara estaba de perfil, tapada o no era una cara
|
||||
cv2.putText(display_frame, "MTCNN Ignorado",
|
||||
(fx, fy-10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 0, 255), 1)
|
||||
continue
|
||||
|
||||
estado = " IDENTIFICADO" if max_sim > UMBRAL_SIM else "DESCONOCIDO"
|
||||
nombre_d = mejor_match.split('_')[0] if mejor_match else "nadie"
|
||||
n_bloques = int(max_sim * 20)
|
||||
barra = "█" * n_bloques + "░" * (20 - n_bloques)
|
||||
print(f"[REGISTRO] {estado} | {nombre_d:<14} | {barra} | "
|
||||
f"{max_sim*100:.1f}% (umbral: {UMBRAL_SIM*100:.0f}%)")
|
||||
|
||||
if max_sim > UMBRAL_SIM and mejor_match:
|
||||
color = (0, 255, 0)
|
||||
texto = f"{mejor_match.split('_')[0]} ({max_sim:.2f})"
|
||||
|
||||
if mejor_match == persona_actual:
|
||||
confirmaciones += 1
|
||||
else:
|
||||
persona_actual, confirmaciones = mejor_match, 1
|
||||
|
||||
if confirmaciones >= 1:
|
||||
cv2.rectangle(display_frame, (fx, fy), (fx+fw, fy+fh), (0, 255, 0), 3)
|
||||
try:
|
||||
analisis = DeepFace.analyze(
|
||||
roi_mejorado, actions=['gender'], enforce_detection=False
|
||||
)[0]
|
||||
genero = analisis['dominant_gender']
|
||||
except Exception:
|
||||
genero = "Man"
|
||||
|
||||
threading.Thread(
|
||||
target=hilo_bienvenida,
|
||||
args=(mejor_match, genero),
|
||||
daemon=True
|
||||
).start()
|
||||
ultimo_saludo = tiempo_actual
|
||||
confirmaciones = 0
|
||||
|
||||
else:
|
||||
color = (0, 0, 255)
|
||||
texto = f"? ({max_sim:.2f})"
|
||||
confirmaciones = max(0, confirmaciones - 1)
|
||||
|
||||
cv2.putText(display_frame, texto,
|
||||
(fx, fy - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.7, color, 2)
|
||||
|
||||
cv2.imshow("Módulo de Registro", display_frame)
|
||||
key = cv2.waitKey(1) & 0xFF
|
||||
|
||||
if key == ord('q'):
|
||||
break
|
||||
|
||||
elif key == ord('r'):
|
||||
if faces_ultimo_frame:
|
||||
areas = [fw * fh for (fx, fy, fw, fh, _) in faces_ultimo_frame]
|
||||
fx, fy, fw, fh, _ = faces_ultimo_frame[np.argmax(areas)]
|
||||
|
||||
m_x = int(fw * 0.30)
|
||||
m_y = int(fh * 0.30)
|
||||
face_roi = frame[max(0, fy-m_y): min(h, fy+fh+m_y),
|
||||
max(0, fx-m_x): min(w, fx+fw+m_x)]
|
||||
|
||||
if face_roi.size > 0:
|
||||
nom = input("\nNombre de la persona: ").strip()
|
||||
if nom:
|
||||
foto_path = os.path.join(DB_PATH, f"{nom}.jpg")
|
||||
cv2.imwrite(foto_path, face_roi)
|
||||
print(f"[OK] Rostro de '{nom}' guardado. Sincronizando...")
|
||||
base_datos = gestionar_vectores(actualizar=True)
|
||||
else:
|
||||
print("[!] Registro cancelado.")
|
||||
else:
|
||||
print("[!] Recorte vacío. Intenta de nuevo.")
|
||||
else:
|
||||
print("\n[!] No se detectó rostro. Acércate más o mira a la lente.")
|
||||
|
||||
cap.release()
|
||||
cv2.destroyAllWindows()
|
||||
|
||||
if __name__ == "__main__":
|
||||
sistema_interactivo()
|
||||
import os
|
||||
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '3'
|
||||
os.environ['CUDA_VISIBLE_DEVICES'] = '-1'
|
||||
|
||||
import cv2
|
||||
import numpy as np
|
||||
from deepface import DeepFace
|
||||
import pickle
|
||||
import time
|
||||
import threading
|
||||
import asyncio
|
||||
import edge_tts
|
||||
import subprocess
|
||||
from datetime import datetime
|
||||
import warnings
|
||||
import urllib.request
|
||||
import torch
|
||||
|
||||
if torch.cuda.is_available():
|
||||
device = "cuda"
|
||||
print("GPU detectada → usando GPU 🚀")
|
||||
else:
|
||||
device = "cpu"
|
||||
print("GPU no disponible → usando CPU ⚠️")
|
||||
|
||||
warnings.filterwarnings("ignore")
|
||||
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
# CONFIGURACIÓN
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
DB_PATH = "db_institucion"
|
||||
CACHE_PATH = "cache_nombres"
|
||||
VECTORS_FILE = "base_datos_rostros.pkl"
|
||||
TIMESTAMPS_FILE = "representaciones_timestamps.pkl"
|
||||
UMBRAL_SIM = 0.42 # Por encima → identificado. Por debajo → desconocido.
|
||||
COOLDOWN_TIME = 15 # Segundos entre saludos
|
||||
|
||||
USUARIO, PASSWORD, IP_DVR = "admin", "TCA200503", "192.168.1.244"
|
||||
RTSP_URL = f"rtsp://{USUARIO}:{PASSWORD}@{IP_DVR}:554/Streaming/Channels/702"
|
||||
|
||||
for path in [DB_PATH, CACHE_PATH]:
|
||||
os.makedirs(path, exist_ok=True)
|
||||
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
# YUNET — Detector facial rápido en CPU
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
YUNET_MODEL_PATH = "face_detection_yunet_2023mar.onnx"
|
||||
|
||||
if not os.path.exists(YUNET_MODEL_PATH):
|
||||
print(f"Descargando YuNet ({YUNET_MODEL_PATH})...")
|
||||
url = ("https://github.com/opencv/opencv_zoo/raw/main/models/"
|
||||
"face_detection_yunet/face_detection_yunet_2023mar.onnx")
|
||||
urllib.request.urlretrieve(url, YUNET_MODEL_PATH)
|
||||
print("YuNet descargado.")
|
||||
|
||||
# Detector estricto para ROIs grandes (persona cerca)
|
||||
detector_yunet = cv2.FaceDetectorYN.create(
|
||||
model=YUNET_MODEL_PATH, config="",
|
||||
input_size=(320, 320),
|
||||
score_threshold=0.70,
|
||||
nms_threshold=0.3,
|
||||
top_k=5000
|
||||
)
|
||||
|
||||
# Detector permisivo para ROIs pequeños (persona lejos)
|
||||
detector_yunet_lejano = cv2.FaceDetectorYN.create(
|
||||
model=YUNET_MODEL_PATH, config="",
|
||||
input_size=(320, 320),
|
||||
score_threshold=0.45,
|
||||
nms_threshold=0.3,
|
||||
top_k=5000
|
||||
)
|
||||
|
||||
def detectar_rostros_yunet(roi, lock=None):
|
||||
"""
|
||||
Elige automáticamente el detector según el tamaño del ROI.
|
||||
"""
|
||||
h_roi, w_roi = roi.shape[:2]
|
||||
area = w_roi * h_roi
|
||||
det = detector_yunet if area > 8000 else detector_yunet_lejano
|
||||
|
||||
try:
|
||||
if lock:
|
||||
with lock:
|
||||
det.setInputSize((w_roi, h_roi))
|
||||
_, faces = det.detect(roi)
|
||||
else:
|
||||
det.setInputSize((w_roi, h_roi))
|
||||
_, faces = det.detect(roi)
|
||||
except Exception:
|
||||
return []
|
||||
|
||||
if faces is None:
|
||||
return []
|
||||
|
||||
resultado = []
|
||||
for face in faces:
|
||||
try:
|
||||
fx, fy, fw, fh = map(int, face[:4])
|
||||
score = float(face[14]) if len(face) > 14 else 1.0
|
||||
resultado.append((fx, fy, fw, fh, score))
|
||||
except (ValueError, OverflowError, TypeError):
|
||||
continue
|
||||
return resultado
|
||||
|
||||
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
# SISTEMA DE AUDIO
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
def obtener_audios_humanos(genero):
|
||||
hora = datetime.now().hour
|
||||
es_mujer = genero.lower() == 'woman'
|
||||
suffix = "_m.mp3" if es_mujer else "_h.mp3"
|
||||
if 5 <= hora < 12:
|
||||
intro = "dias.mp3"
|
||||
elif 12 <= hora < 19:
|
||||
intro = "tarde.mp3"
|
||||
else:
|
||||
intro = "noches.mp3"
|
||||
cierre = ("fin_noche" if (hora >= 19 or hora < 5) else "fin_dia") + suffix
|
||||
return intro, cierre
|
||||
|
||||
|
||||
async def sintetizar_nombre(nombre, ruta):
|
||||
nombre_limpio = nombre.replace('_', ' ')
|
||||
try:
|
||||
comunicador = edge_tts.Communicate(nombre_limpio, "es-MX-DaliaNeural", rate="+10%")
|
||||
await comunicador.save(ruta)
|
||||
except Exception:
|
||||
pass
|
||||
|
||||
|
||||
def reproducir(archivo):
|
||||
if os.path.exists(archivo):
|
||||
subprocess.Popen(
|
||||
["mpv", "--no-video", "--volume=100", archivo],
|
||||
stdout=subprocess.DEVNULL,
|
||||
stderr=subprocess.DEVNULL
|
||||
)
|
||||
|
||||
|
||||
def hilo_bienvenida(nombre, genero):
|
||||
archivo_nombre = os.path.join(CACHE_PATH, f"nombre_{nombre}.mp3")
|
||||
|
||||
if not os.path.exists(archivo_nombre):
|
||||
try:
|
||||
asyncio.run(sintetizar_nombre(nombre, archivo_nombre))
|
||||
except Exception:
|
||||
pass
|
||||
|
||||
intro, cierre = obtener_audios_humanos(genero)
|
||||
|
||||
archivos = [f for f in [intro, archivo_nombre, cierre] if os.path.exists(f)]
|
||||
if archivos:
|
||||
subprocess.Popen(
|
||||
["mpv", "--no-video", "--volume=100"] + archivos,
|
||||
stdout=subprocess.DEVNULL,
|
||||
stderr=subprocess.DEVNULL
|
||||
)
|
||||
|
||||
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
# GESTIÓN DE BASE DE DATOS (AHORA CON RETINAFACE Y ALINEACIÓN)
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
def gestionar_vectores(actualizar=False):
|
||||
import json # ⚡ Asegúrate de tener importado json
|
||||
|
||||
vectores_actuales = {}
|
||||
if os.path.exists(VECTORS_FILE):
|
||||
try:
|
||||
with open(VECTORS_FILE, 'rb') as f:
|
||||
vectores_actuales = pickle.load(f)
|
||||
except Exception:
|
||||
vectores_actuales = {}
|
||||
|
||||
if not actualizar:
|
||||
return vectores_actuales
|
||||
|
||||
timestamps = {}
|
||||
if os.path.exists(TIMESTAMPS_FILE):
|
||||
try:
|
||||
with open(TIMESTAMPS_FILE, 'rb') as f:
|
||||
timestamps = pickle.load(f)
|
||||
except Exception:
|
||||
timestamps = {}
|
||||
|
||||
# ──────────────────────────────────────────────────────────
|
||||
# CARGA DEL CACHÉ DE GÉNEROS
|
||||
# ──────────────────────────────────────────────────────────
|
||||
ruta_generos = os.path.join(CACHE_PATH, "generos.json")
|
||||
dic_generos = {}
|
||||
if os.path.exists(ruta_generos):
|
||||
try:
|
||||
with open(ruta_generos, 'r') as f:
|
||||
dic_generos = json.load(f)
|
||||
except Exception:
|
||||
pass
|
||||
|
||||
print("\nACTUALIZANDO BASE DE DATOS (Alineación y Caché de Géneros)...")
|
||||
imagenes = [f for f in os.listdir(DB_PATH) if f.lower().endswith(('.jpg', '.png'))]
|
||||
nombres_en_disco = set()
|
||||
hubo_cambios = False
|
||||
cambio_generos = False # Bandera para saber si actualizamos el JSON
|
||||
|
||||
for archivo in imagenes:
|
||||
nombre_archivo = os.path.splitext(archivo)[0]
|
||||
ruta_img = os.path.join(DB_PATH, archivo)
|
||||
nombres_en_disco.add(nombre_archivo)
|
||||
|
||||
ts_actual = os.path.getmtime(ruta_img)
|
||||
ts_guardado = timestamps.get(nombre_archivo, 0)
|
||||
|
||||
# Si ya tenemos el vector pero NO tenemos su género en el JSON, forzamos el procesamiento
|
||||
falta_genero = nombre_archivo not in dic_generos
|
||||
|
||||
if nombre_archivo in vectores_actuales and ts_actual == ts_guardado and not falta_genero:
|
||||
continue
|
||||
|
||||
try:
|
||||
img_db = cv2.imread(ruta_img)
|
||||
lab = cv2.cvtColor(img_db, cv2.COLOR_BGR2LAB)
|
||||
l, a, b = cv2.split(lab)
|
||||
clahe = cv2.createCLAHE(clipLimit=2.0, tileGridSize=(8,8))
|
||||
l = clahe.apply(l)
|
||||
img_mejorada = cv2.cvtColor(cv2.merge((l, a, b)), cv2.COLOR_LAB2BGR)
|
||||
|
||||
# IA DE GÉNERO (Solo se ejecuta 1 vez por persona en toda la vida del sistema)
|
||||
if falta_genero:
|
||||
try:
|
||||
analisis = DeepFace.analyze(img_mejorada, actions=['gender'], enforce_detection=False)[0]
|
||||
dic_generos[nombre_archivo] = analisis.get('dominant_gender', 'Man')
|
||||
except Exception:
|
||||
dic_generos[nombre_archivo] = "Man" # Respaldo
|
||||
cambio_generos = True
|
||||
|
||||
# Extraemos el vector
|
||||
res = DeepFace.represent(
|
||||
img_path=img_mejorada,
|
||||
model_name="ArcFace",
|
||||
detector_backend="opencv",
|
||||
align=False,
|
||||
enforce_detection=True
|
||||
)
|
||||
emb = np.array(res[0]["embedding"], dtype=np.float32)
|
||||
|
||||
norma = np.linalg.norm(emb)
|
||||
if norma > 0:
|
||||
emb = emb / norma
|
||||
|
||||
vectores_actuales[nombre_archivo] = emb
|
||||
timestamps[nombre_archivo] = ts_actual
|
||||
hubo_cambios = True
|
||||
print(f" Procesado y alineado: {nombre_archivo} | Género: {dic_generos.get(nombre_archivo)}")
|
||||
|
||||
except Exception as e:
|
||||
print(f" Rostro no válido en '{archivo}', omitido. Error: {e}")
|
||||
|
||||
# Limpieza de eliminados
|
||||
for nombre in list(vectores_actuales.keys()):
|
||||
if nombre not in nombres_en_disco:
|
||||
del vectores_actuales[nombre]
|
||||
timestamps.pop(nombre, None)
|
||||
if nombre in dic_generos:
|
||||
del dic_generos[nombre]
|
||||
cambio_generos = True
|
||||
hubo_cambios = True
|
||||
print(f" Eliminado (sin foto): {nombre}")
|
||||
|
||||
# Guardado de la memoria
|
||||
if hubo_cambios:
|
||||
with open(VECTORS_FILE, 'wb') as f:
|
||||
pickle.dump(vectores_actuales, f)
|
||||
with open(TIMESTAMPS_FILE, 'wb') as f:
|
||||
pickle.dump(timestamps, f)
|
||||
|
||||
# Guardado del JSON de géneros si hubo descubrimientos nuevos
|
||||
if cambio_generos:
|
||||
with open(ruta_generos, 'w') as f:
|
||||
json.dump(dic_generos, f)
|
||||
|
||||
if hubo_cambios or cambio_generos:
|
||||
print(" Sincronización terminada.\n")
|
||||
else:
|
||||
print(" Sin cambios. Base de datos al día.\n")
|
||||
|
||||
return vectores_actuales
|
||||
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
# BÚSQUEDA BLINDADA (Similitud Coseno estricta)
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
def buscar_mejor_match(emb_consulta, base_datos):
|
||||
# ⚡ MAGIA 3: Normalización L2 del vector entrante
|
||||
norma = np.linalg.norm(emb_consulta)
|
||||
if norma > 0:
|
||||
emb_consulta = emb_consulta / norma
|
||||
|
||||
mejor_match, max_sim = None, -1.0
|
||||
for nombre, vec in base_datos.items():
|
||||
# Como ambos están normalizados, esto es Similitud Coseno pura (-1.0 a 1.0)
|
||||
sim = float(np.dot(emb_consulta, vec))
|
||||
if sim > max_sim:
|
||||
max_sim = sim
|
||||
mejor_match = nombre
|
||||
|
||||
return mejor_match, max_sim
|
||||
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
# LOOP DE PRUEBA Y REGISTRO (CON SIMETRÍA ESTRICTA)
|
||||
# ──────────────────────────────────────────────────────────────────────────────
|
||||
def sistema_interactivo():
|
||||
base_datos = gestionar_vectores(actualizar=False)
|
||||
cap = cv2.VideoCapture(RTSP_URL)
|
||||
ultimo_saludo = 0
|
||||
persona_actual = None
|
||||
confirmaciones = 0
|
||||
|
||||
print("\n" + "=" * 50)
|
||||
print(" MÓDULO DE REGISTRO Y DEPURACIÓN ESTRICTO")
|
||||
print(" [R] Registrar nuevo rostro | [Q] Salir")
|
||||
print("=" * 50 + "\n")
|
||||
|
||||
faces_ultimo_frame = []
|
||||
|
||||
while True:
|
||||
ret, frame = cap.read()
|
||||
if not ret:
|
||||
time.sleep(2)
|
||||
cap.open(RTSP_URL)
|
||||
continue
|
||||
|
||||
h, w = frame.shape[:2]
|
||||
display_frame = frame.copy()
|
||||
tiempo_actual = time.time()
|
||||
|
||||
faces_raw = detectar_rostros_yunet(frame)
|
||||
faces_ultimo_frame = faces_raw
|
||||
|
||||
for (fx, fy, fw, fh, score_yunet) in faces_raw:
|
||||
fx = max(0, fx); fy = max(0, fy)
|
||||
fw = min(w - fx, fw); fh = min(h - fy, fh)
|
||||
if fw <= 0 or fh <= 0:
|
||||
continue
|
||||
|
||||
cv2.rectangle(display_frame, (fx, fy), (fx+fw, fy+fh), (255, 200, 0), 2)
|
||||
cv2.putText(display_frame, f"YN:{score_yunet:.2f}",
|
||||
(fx, fy - 25), cv2.FONT_HERSHEY_SIMPLEX, 0.45, (255, 200, 0), 1)
|
||||
|
||||
if (tiempo_actual - ultimo_saludo) <= COOLDOWN_TIME:
|
||||
continue
|
||||
|
||||
m = int(fw * 0.15)
|
||||
roi = frame[max(0, fy-m): min(h, fy+fh+m),
|
||||
max(0, fx-m): min(w, fx+fw+m)]
|
||||
|
||||
# 🛡️ FILTRO DE TAMAÑO FÍSICO
|
||||
if roi.size == 0 or roi.shape[0] < 40 or roi.shape[1] < 40:
|
||||
cv2.putText(display_frame, "muy pequeno",
|
||||
(fx, fy-10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 100, 255), 1)
|
||||
continue
|
||||
|
||||
# 🛡️ FILTRO DE NITIDEZ
|
||||
gray_roi = cv2.cvtColor(roi, cv2.COLOR_BGR2GRAY)
|
||||
nitidez = cv2.Laplacian(gray_roi, cv2.CV_64F).var()
|
||||
if nitidez < 50.0:
|
||||
cv2.putText(display_frame, f"blur({nitidez:.0f})",
|
||||
(fx, fy-10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 165, 255), 1)
|
||||
continue
|
||||
|
||||
# 🌙 SIMETRÍA 1: VISIÓN NOCTURNA (CLAHE) AL VIDEO EN VIVO
|
||||
try:
|
||||
lab = cv2.cvtColor(roi, cv2.COLOR_BGR2LAB)
|
||||
l, a, b = cv2.split(lab)
|
||||
clahe = cv2.createCLAHE(clipLimit=2.0, tileGridSize=(8,8))
|
||||
l = clahe.apply(l)
|
||||
roi_mejorado = cv2.cvtColor(cv2.merge((l, a, b)), cv2.COLOR_LAB2BGR)
|
||||
except Exception:
|
||||
roi_mejorado = roi # Respaldo de seguridad
|
||||
|
||||
# 🧠 SIMETRÍA 2: MOTOR MTCNN Y ALINEACIÓN (Igual que la Base de Datos)
|
||||
try:
|
||||
res = DeepFace.represent(
|
||||
img_path=roi_mejorado,
|
||||
model_name="ArcFace",
|
||||
detector_backend="mtcnn", # El mismo que en gestionar_vectores
|
||||
align=True, # Enderezamos la cara
|
||||
enforce_detection=True # Si MTCNN no ve cara clara, aborta
|
||||
)
|
||||
emb = np.array(res[0]["embedding"], dtype=np.float32)
|
||||
mejor_match, max_sim = buscar_mejor_match(emb, base_datos)
|
||||
|
||||
except Exception:
|
||||
# MTCNN abortó porque la cara estaba de perfil, tapada o no era una cara
|
||||
cv2.putText(display_frame, "MTCNN Ignorado",
|
||||
(fx, fy-10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 0, 255), 1)
|
||||
continue
|
||||
|
||||
estado = " IDENTIFICADO" if max_sim > UMBRAL_SIM else "DESCONOCIDO"
|
||||
nombre_d = mejor_match.split('_')[0] if mejor_match else "nadie"
|
||||
n_bloques = int(max_sim * 20)
|
||||
barra = "█" * n_bloques + "░" * (20 - n_bloques)
|
||||
print(f"[REGISTRO] {estado} | {nombre_d:<14} | {barra} | "
|
||||
f"{max_sim*100:.1f}% (umbral: {UMBRAL_SIM*100:.0f}%)")
|
||||
|
||||
if max_sim > UMBRAL_SIM and mejor_match:
|
||||
color = (0, 255, 0)
|
||||
texto = f"{mejor_match.split('_')[0]} ({max_sim:.2f})"
|
||||
|
||||
if mejor_match == persona_actual:
|
||||
confirmaciones += 1
|
||||
else:
|
||||
persona_actual, confirmaciones = mejor_match, 1
|
||||
|
||||
if confirmaciones >= 1:
|
||||
cv2.rectangle(display_frame, (fx, fy), (fx+fw, fy+fh), (0, 255, 0), 3)
|
||||
try:
|
||||
analisis = DeepFace.analyze(
|
||||
roi_mejorado, actions=['gender'], enforce_detection=False
|
||||
)[0]
|
||||
genero = analisis['dominant_gender']
|
||||
except Exception:
|
||||
genero = "Man"
|
||||
|
||||
threading.Thread(
|
||||
target=hilo_bienvenida,
|
||||
args=(mejor_match, genero),
|
||||
daemon=True
|
||||
).start()
|
||||
ultimo_saludo = tiempo_actual
|
||||
confirmaciones = 0
|
||||
|
||||
else:
|
||||
color = (0, 0, 255)
|
||||
texto = f"? ({max_sim:.2f})"
|
||||
confirmaciones = max(0, confirmaciones - 1)
|
||||
|
||||
cv2.putText(display_frame, texto,
|
||||
(fx, fy - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.7, color, 2)
|
||||
|
||||
cv2.imshow("Módulo de Registro", display_frame)
|
||||
key = cv2.waitKey(1) & 0xFF
|
||||
|
||||
if key == ord('q'):
|
||||
break
|
||||
|
||||
elif key == ord('r'):
|
||||
if faces_ultimo_frame:
|
||||
areas = [fw * fh for (fx, fy, fw, fh, _) in faces_ultimo_frame]
|
||||
fx, fy, fw, fh, _ = faces_ultimo_frame[np.argmax(areas)]
|
||||
|
||||
m_x = int(fw * 0.30)
|
||||
m_y = int(fh * 0.30)
|
||||
face_roi = frame[max(0, fy-m_y): min(h, fy+fh+m_y),
|
||||
max(0, fx-m_x): min(w, fx+fw+m_x)]
|
||||
|
||||
if face_roi.size > 0:
|
||||
nom = input("\nNombre de la persona: ").strip()
|
||||
if nom:
|
||||
foto_path = os.path.join(DB_PATH, f"{nom}.jpg")
|
||||
cv2.imwrite(foto_path, face_roi)
|
||||
print(f"[OK] Rostro de '{nom}' guardado. Sincronizando...")
|
||||
base_datos = gestionar_vectores(actualizar=True)
|
||||
else:
|
||||
print("[!] Registro cancelado.")
|
||||
else:
|
||||
print("[!] Recorte vacío. Intenta de nuevo.")
|
||||
else:
|
||||
print("\n[!] No se detectó rostro. Acércate más o mira a la lente.")
|
||||
|
||||
cap.release()
|
||||
cv2.destroyAllWindows()
|
||||
|
||||
if __name__ == "__main__":
|
||||
sistema_interactivo()
|
||||
|
||||
192
requirements.txt
192
requirements.txt
@ -1,96 +1,96 @@
|
||||
absl-py==2.4.0
|
||||
aiohappyeyeballs==2.6.1
|
||||
aiohttp==3.13.3
|
||||
aiosignal==1.4.0
|
||||
astunparse==1.6.3
|
||||
attrs==25.4.0
|
||||
beautifulsoup4==4.14.3
|
||||
blinker==1.9.0
|
||||
certifi==2026.1.4
|
||||
charset-normalizer==3.4.4
|
||||
click==8.3.1
|
||||
contourpy==1.3.3
|
||||
cycler==0.12.1
|
||||
deepface==0.0.98
|
||||
edge-tts==7.2.7
|
||||
filelock==3.20.0
|
||||
fire==0.7.1
|
||||
Flask==3.1.2
|
||||
flask-cors==6.0.2
|
||||
flatbuffers==25.12.19
|
||||
fonttools==4.61.1
|
||||
frozenlist==1.8.0
|
||||
fsspec==2025.12.0
|
||||
gast==0.7.0
|
||||
gdown==5.2.1
|
||||
google-pasta==0.2.0
|
||||
grpcio==1.78.0
|
||||
gunicorn==25.0.3
|
||||
h5py==3.15.1
|
||||
idna==3.11
|
||||
itsdangerous==2.2.0
|
||||
Jinja2==3.1.6
|
||||
joblib==1.5.3
|
||||
keras==3.13.2
|
||||
kiwisolver==1.4.9
|
||||
lap==0.5.12
|
||||
libclang==18.1.1
|
||||
lightdsa==0.0.3
|
||||
lightecc==0.0.4
|
||||
lightphe==0.0.20
|
||||
lz4==4.4.5
|
||||
Markdown==3.10.2
|
||||
markdown-it-py==4.0.0
|
||||
MarkupSafe==2.1.5
|
||||
matplotlib==3.10.8
|
||||
mdurl==0.1.2
|
||||
ml_dtypes==0.5.4
|
||||
mpmath==1.3.0
|
||||
mtcnn==1.0.0
|
||||
multidict==6.7.1
|
||||
namex==0.1.0
|
||||
networkx==3.6.1
|
||||
numpy==1.26.4
|
||||
onnxruntime==1.24.2
|
||||
opencv-python==4.11.0.86
|
||||
opt_einsum==3.4.0
|
||||
optree==0.18.0
|
||||
packaging==26.0
|
||||
pandas==3.0.0
|
||||
pillow==12.0.0
|
||||
polars==1.38.1
|
||||
polars-runtime-32==1.38.1
|
||||
propcache==0.4.1
|
||||
protobuf==6.33.5
|
||||
psutil==7.2.2
|
||||
Pygments==2.19.2
|
||||
pyparsing==3.3.2
|
||||
PySocks==1.7.1
|
||||
python-dateutil==2.9.0.post0
|
||||
python-dotenv==1.2.1
|
||||
PyYAML==6.0.3
|
||||
requests==2.32.5
|
||||
retina-face==0.0.17
|
||||
rich==14.3.2
|
||||
scipy==1.17.0
|
||||
six==1.17.0
|
||||
soupsieve==2.8.3
|
||||
sympy==1.14.0
|
||||
tabulate==0.9.0
|
||||
tensorboard==2.20.0
|
||||
tensorboard-data-server==0.7.2
|
||||
tensorflow==2.20.0
|
||||
tensorflow-io-gcs-filesystem==0.37.1
|
||||
termcolor==3.3.0
|
||||
tf_keras==2.20.1
|
||||
torch==2.10.0+cpu
|
||||
torchreid==0.2.5
|
||||
torchvision==0.25.0+cpu
|
||||
tqdm==4.67.3
|
||||
typing_extensions==4.15.0
|
||||
ultralytics==8.4.14
|
||||
ultralytics-thop==2.0.18
|
||||
urllib3==2.6.3
|
||||
Werkzeug==3.1.5
|
||||
wrapt==2.1.1
|
||||
yarl==1.22.0
|
||||
absl-py==2.4.0
|
||||
aiohappyeyeballs==2.6.1
|
||||
aiohttp==3.13.3
|
||||
aiosignal==1.4.0
|
||||
astunparse==1.6.3
|
||||
attrs==25.4.0
|
||||
beautifulsoup4==4.14.3
|
||||
blinker==1.9.0
|
||||
certifi==2026.1.4
|
||||
charset-normalizer==3.4.4
|
||||
click==8.3.1
|
||||
contourpy==1.3.3
|
||||
cycler==0.12.1
|
||||
deepface==0.0.98
|
||||
edge-tts==7.2.7
|
||||
filelock==3.20.0
|
||||
fire==0.7.1
|
||||
Flask==3.1.2
|
||||
flask-cors==6.0.2
|
||||
flatbuffers==25.12.19
|
||||
fonttools==4.61.1
|
||||
frozenlist==1.8.0
|
||||
fsspec==2025.12.0
|
||||
gast==0.7.0
|
||||
gdown==5.2.1
|
||||
google-pasta==0.2.0
|
||||
grpcio==1.78.0
|
||||
gunicorn==25.0.3
|
||||
h5py==3.15.1
|
||||
idna==3.11
|
||||
itsdangerous==2.2.0
|
||||
Jinja2==3.1.6
|
||||
joblib==1.5.3
|
||||
keras==3.13.2
|
||||
kiwisolver==1.4.9
|
||||
lap==0.5.12
|
||||
libclang==18.1.1
|
||||
lightdsa==0.0.3
|
||||
lightecc==0.0.4
|
||||
lightphe==0.0.20
|
||||
lz4==4.4.5
|
||||
Markdown==3.10.2
|
||||
markdown-it-py==4.0.0
|
||||
MarkupSafe==2.1.5
|
||||
matplotlib==3.10.8
|
||||
mdurl==0.1.2
|
||||
ml_dtypes==0.5.4
|
||||
mpmath==1.3.0
|
||||
mtcnn==1.0.0
|
||||
multidict==6.7.1
|
||||
namex==0.1.0
|
||||
networkx==3.6.1
|
||||
numpy==1.26.4
|
||||
onnxruntime==1.24.2
|
||||
opencv-python==4.11.0.86
|
||||
opt_einsum==3.4.0
|
||||
optree==0.18.0
|
||||
packaging==26.0
|
||||
pandas==3.0.0
|
||||
pillow==12.0.0
|
||||
polars==1.38.1
|
||||
polars-runtime-32==1.38.1
|
||||
propcache==0.4.1
|
||||
protobuf==6.33.5
|
||||
psutil==7.2.2
|
||||
Pygments==2.19.2
|
||||
pyparsing==3.3.2
|
||||
PySocks==1.7.1
|
||||
python-dateutil==2.9.0.post0
|
||||
python-dotenv==1.2.1
|
||||
PyYAML==6.0.3
|
||||
requests==2.32.5
|
||||
retina-face==0.0.17
|
||||
rich==14.3.2
|
||||
scipy==1.17.0
|
||||
six==1.17.0
|
||||
soupsieve==2.8.3
|
||||
sympy==1.14.0
|
||||
tabulate==0.9.0
|
||||
tensorboard==2.20.0
|
||||
tensorboard-data-server==0.7.2
|
||||
tensorflow==2.20.0
|
||||
tensorflow-io-gcs-filesystem==0.37.1
|
||||
termcolor==3.3.0
|
||||
tf_keras==2.20.1
|
||||
torch==2.10.0+cpu
|
||||
torchreid==0.2.5
|
||||
torchvision==0.25.0+cpu
|
||||
tqdm==4.67.3
|
||||
typing_extensions==4.15.0
|
||||
ultralytics==8.4.14
|
||||
ultralytics-thop==2.0.18
|
||||
urllib3==2.6.3
|
||||
Werkzeug==3.1.5
|
||||
wrapt==2.1.1
|
||||
yarl==1.22.0
|
||||
|
||||
2516
vesiones_seguras.txt
2516
vesiones_seguras.txt
File diff suppressed because it is too large
Load Diff
Loading…
Reference in New Issue
Block a user