Tech Gesture es un modelo de IA quee gracias a la Computer Vision (CV) traduce todo el alfabeto dactológico de la LSE
- Este proyecto usa Python 3.11 (Virtual venv recomendado)
- Instala las dependencias necesarias
pip install ultralytics openai-whisper jupyter opencv-contrib-python labelme labelme2yolo streamlit cryptography eel
- Collect_images.py sirve para capturar imagenes (Se guardan en el directorio datasets/coco/images). Puedes cambiar la variable abecedario, el numero de imagenes y el tiempo de espera entre cada captura
labelme2yolo --json_dir datasets/coco/labels
Change the dataset.yaml paths
yolo detect train data=datasets/coco/labels/YOLODataset/dataset.yaml model=yolov8s.pt epochs=2 optimize=true cache=disk
yolo detect train data=datasets/coco/labels/YOLODataset/dataset.yaml model=yolov8m.pt time=1.5 save_period=3 optimize=true cache=disk
yolo detect train data=datasets/coco/labels/YOLODataset/dataset.yaml model=yolov8m.pt time=8 optimize=true cache=disk
yolo detect train data=datasets/coco/labels/YOLODataset/dataset.yaml model=yolov8l.pt time=25 optimize=true cache=disk
yolo detect val model=runs\detect\train21\weights\best.pt data=datasets/coco/labels/YOLODataset/dataset.yaml
yolo train resume model=runs/detect/train22/weights/last.pt data=datasets/coco/labels/YOLODataset/dataset.yaml
yolo detect train data=datasets/coco/labels/YOLODataset/dataset.yaml model=yolov8l.pt pretrained=runs/detect/Everest1.1/weights/best.pt time=10 name=Everest1.2