KdaiP commited on
Commit
d7c8f9c
·
1 Parent(s): 9437b2f

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +13 -67
README.md CHANGED
@@ -1,67 +1,13 @@
1
- <div align="center">
2
- <h1> yolov8-deepsort-tracking </h1>
3
- </div>
4
-
5
- ![示例图片](https://github.com/KdaiP/yolov8-deepsort-tracking/blob/main/demo.png)
6
-
7
- opencv+yolov8+deepsort的行人检测与跟踪。当然,也可以识别车辆等其他类别。
8
-
9
- - 2023/10/17更新:简化代码,删除不必要的依赖
10
-
11
- - 2023/7/4更新:加入了一个基于Gradio的WebUI界面
12
-
13
- ## 安装
14
- 环境:Python>=3.8
15
-
16
- 本项目需要pytorch,建议手动在[pytorch官网](https://pytorch.org/get-started/locally/)根据自己的平台和CUDA环境安装对应的版本。
17
-
18
- pytorch的详细安装教程可以参照[Conda Quickstart Guide for Ultralytics](https://docs.ultralytics.com/guides/conda-quickstart/)
19
-
20
- 安装完pytorch后,需要通过以下命令来安装其他依赖:
21
-
22
- ```shell
23
- $ pip install -r requirements.txt
24
- ```
25
-
26
-
27
- ## 配置(非WebUI)
28
-
29
- 在main.py中修改以下代码,将输入视频路径换成你要处理的视频的路径:
30
-
31
- ```python
32
- input_video_path = "test.mp4"
33
- ```
34
-
35
- 模型默认使用Ultralytics官方的YOLOv8n模型:
36
-
37
- ```python
38
- model = "yolov8n.pt"
39
- ```
40
-
41
- 第一次使用会自动从官网下载模型,如果网速过慢,可以在[ultralytics的官方文档](https://docs.ultralytics.com/tasks/detect/)下载模型,然后将模型文件拷贝到程序所在目录下。
42
-
43
- ## 运行(非WebUI)
44
-
45
- 运行main.py
46
- 运行完成后,终端会显示输出视频所在的路径。
47
-
48
- ## WebUI界面的配置和运行
49
-
50
- **请先确保已经安装完成上面的依赖**
51
-
52
- 安装Gradio库:
53
-
54
- ```shell
55
- $ pip install gradio
56
- ```
57
-
58
- 运行app.py,如果控制台出现以下消息代表成功运行:
59
- ```shell
60
- Running on local URL: http://127.0.0.1:6006
61
- To create a public link, set `share=True` in `launch()`
62
- ```
63
-
64
- 浏览器打开该URL即可使用WebUI界面
65
-
66
- ![WebUI](https://github.com/KdaiP/yolov8-deepsort-tracking/blob/main/webui.png)
67
-
 
1
+ ---
2
+ title: Yolov8 Deepsort Tracking
3
+ emoji: 👀
4
+ colorFrom: red
5
+ colorTo: green
6
+ sdk: gradio
7
+ sdk_version: 3.48.0
8
+ app_file: app.py
9
+ pinned: false
10
+ license: mit
11
+ ---
12
+
13
+ Check out the configuration reference at https://huggingface.co/docs/hub/spaces-config-reference