File size: 2,893 Bytes
8d36ed5
 
 
 
4d26de9
81f06ad
65483f1
97d8f13
02cc722
8d36ed5
81def50
8d36ed5
 
4d26de9
81def50
b3652fb
65483f1
81f06ad
 
4d26de9
8d36ed5
65483f1
 
 
4d26de9
64c49d0
65483f1
 
 
 
 
3f374a7
4a9c7f0
65483f1
64c49d0
4d26de9
65483f1
8d36ed5
65483f1
8d36ed5
4d26de9
fac5d14
4d26de9
 
 
 
64c49d0
 
 
 
65483f1
 
 
4d26de9
 
8d36ed5
97d8f13
81def50
65483f1
 
 
 
81def50
97d8f13
 
 
 
 
 
 
8f70bf2
97d8f13
 
 
 
 
 
 
 
 
65483f1
8d36ed5
64c49d0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
import io
import time
import numpy as np
import cv2
import torch
from transformers import AutoImageProcessor, AutoModelForDepthEstimation
from fastapi import FastAPI, File, UploadFile, Response
from fastapi.responses import FileResponse, HTMLResponse
from PIL import Image
import uvicorn

app = FastAPI()

# 🟢 Chọn thiết bị xử lý (GPU nếu có)
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")

# 🟢 Tải model DPT-Hybrid để tăng tốc
feature_extractor = AutoImageProcessor.from_pretrained("Intel/dpt-swinv2-tiny-256")
model = AutoModelForDepthEstimation.from_pretrained("Intel/dpt-swinv2-tiny-256").to(device)
model.eval()

@app.post("/analyze_path/")
async def analyze_path(file: UploadFile = File(...)):
    """Xử lý ảnh Depth Map và lưu ảnh để hiển thị"""
    start_time = time.time()

    # 🟢 Đọc file ảnh từ ESP32
    image_bytes = await file.read()
    image = Image.open(io.BytesIO(image_bytes)).convert("RGB")

    # 🔵 Resize ảnh để xử lý nhanh hơn
    image = image.resize((512, 512))
    image_np = np.array(image)
    flipped_image = cv2.flip(image_np, -1)

    # 🟢 Chuẩn bị ảnh cho mô hình
    inputs = feature_extractor(images=flipped_image, return_tensors="pt").to(device)

    # 🟢 Dự đoán Depth Map với DPT-Hybrid
    with torch.no_grad():
        outputs = model(**inputs)

    # 🟢 Xử lý ảnh sau khi dự đoán
    predicted_depth = outputs.predicted_depth.squeeze().cpu().numpy()
    depth_map = (predicted_depth * 255 / predicted_depth.max()).astype("uint8")

    # 🔵 Chuyển depth_map thành ảnh có thể hiển thị
    depth_colored = cv2.applyColorMap(depth_map, cv2.COLORMAP_INFERNO)
    depth_pil = Image.fromarray(depth_colored)

    # 🟢 Lưu ảnh Depth Map để hiển thị trên trình duyệt
    depth_pil.save("depth_map.png")  

    end_time = time.time()
    print(f"⏳ DPT xử lý trong {end_time - start_time:.4f} giây")

    return {"message": "Depth Map processed successfully. View at /view/"}

@app.get("/depth_map/")
async def get_depth_map():
    """Trả về ảnh Depth Map để hiển thị trên trình duyệt"""
    return FileResponse("depth_map.png", media_type="image/png")

@app.get("/view/", response_class=HTMLResponse)
async def view_depth_map():
    """Trả về trang HTML để hiển thị ảnh Depth Map với auto-refresh"""
    html_content = """
    <html>
    <head>
        <title>Depth Map Viewer</title>
        <meta http-equiv="refresh" content="1">
    </head>
    <body>
        <h2>Depth Map (Tự động cập nhật mỗi 5 giây)</h2>
        <img src="/depth_map/" width="500">
    </body>
    </html>
    """
    return HTMLResponse(content=html_content)

# 🟢 Chạy server FastAPI trên Hugging Face Spaces
if __name__ == "__main__":
    uvicorn.run(app, host="0.0.0.0", port=7860)