Spaces:
Runtime error
FAQ
Geral
Como o sistema funciona?
O sistema utiliza um modelo de IA (OWL-ViT) para detectar objetos de risco em vídeos. O processamento pode ser feito em GPU ou CPU, com otimizações específicas para cada caso.
O que é o OWL-ViT?
O OWL-ViT (Vision Transformer for Open-World Localization) é um modelo de IA que:
- Usa arquitetura Transformer para processar imagens
- Permite detecção zero-shot de objetos
- Aceita queries em linguagem natural
- Não precisa de treinamento específico para novos objetos
Problemas Conhecidos com OWL-ViT
Limitações do Modelo Ensemble
O modelo owlv2-base-patch16-ensemble
apresenta incompatibilidades com processamento GPU:
- Conflitos com versões estáveis do Transformers
- Problemas de memória em GPUs com menos de 16GB
- Instabilidade em batch processing
Solução Implementada:
Mudança para modelo base:
owlv2-base-patch16
Atualização do Transformers para branch de desenvolvimento:
pip install git+https://github.com/huggingface/transformers.git
Ajustes nas configurações de memória GPU:
model = model.to(device='cuda', dtype=torch.float16)
Comparação de Versões
Modelo Base
- Mais estável
- Menor consumo de memória
- Compatível com mais GPUs
Modelo Ensemble
- Maior precisão
- Requer mais recursos
- Melhor para CPU
Como fazer queries efetivas para o OWL-ViT?
Para melhores resultados, use estas técnicas:
Seja Específico
- Bom: "uma pistola preta"
- Ruim: "arma"
Use Variações
- "uma arma de fogo"
- "uma pistola"
- "um revólver"
Inclua Contexto
- "uma faca na mão de alguém"
- "uma arma apontada"
Descreva Características
- "uma faca com lâmina metálica"
- "um rifle com coronha"
Tipos de Objetos Detectados
Armas de Fogo
- Pistolas
- Rifles
- Espingardas
Armas Brancas
- Facas
- Canivetes
- Objetos pontiagudos
Outros Objetos
- Bastões
- Objetos contundentes
- Materiais explosivos
Técnico
Requisitos de Hardware
Especificações GPU
- NVIDIA T4 16GB (recomendado)
- CUDA 11.8+
- 16GB RAM
Especificações CPU
- 8+ cores
- 32GB RAM
- SSD para cache
Problemas Comuns
Erro CUDA
Problema: CUDA not available
Solução:
nvidia-smi
pip install torch torchvision --extra-index-url https://download.pytorch.org/whl/cu118
Memória Insuficiente
Problema: CUDA out of memory
Solução:
- Reduza o tamanho do batch
- Diminua a resolução
- Ajuste
GPU_MEMORY_FRACTION
no.env
Performance
Otimizações de Sistema
Ajustes GPU
- Use batch processing
- Ative half precision
- Otimize o cache de modelos
Ajustes CPU
- Ative multiprocessing
- Use vetorização NumPy
- Implemente cache de resultados
Configurações Recomendadas
// Configurações para GPU T4
GPU_MEMORY_FRACTION=0.9
BATCH_SIZE=16
USE_HALF_PRECISION=true
// Configurações para CPU
MAX_WORKERS=8
CACHE_SIZE=1000
USE_MULTIPROCESSING=true
Deployment
Processo de Deploy no Hugging Face
Configure as credenciais:
cp .env.example .env.huggingface
Edite as variáveis:
HF_SPACE_ID=seu-espaco HF_TOKEN=seu_token
Execute o deploy:
./deploy.sh
Sistema de Monitoramento
- Use os logs em
logs/app.log
- Monitore GPU com
nvidia-smi
- Verifique métricas no Hugging Face
Segurança
Gerenciamento de Credenciais
Use variáveis de ambiente:
cp .env.example .env
Nunca comite arquivos
.env
Use secrets no Hugging Face
Validação de Entrada
- Limite o tamanho dos vídeos
- Verifique formatos permitidos
- Sanitize inputs
HUGGINGFACE_TOKEN=seu_token
GPU_MEMORY_FRACTION=0.9
MAX_CONCURRENT_REQUESTS=2
USE_GPU=true
GPU_DEVICE=0
USE_GPU=false
HF_SPACE_ID=seu-espaco
HF_TOKEN=seu_token