Upload ./README_zh.md with huggingface_hub
Browse files- README_zh.md +17 -11
README_zh.md
CHANGED
@@ -25,34 +25,37 @@ huggingface-cli download Tencent-Hunyuan/TensorRT-libs --local-dir ./ckpts/t2i/m
|
|
25 |
### 2. 安装 TensorRT 依赖
|
26 |
|
27 |
```shell
|
|
|
28 |
sh trt/install.sh
|
|
|
|
|
|
|
29 |
```
|
30 |
|
31 |
### 3. 构建 TensorRT engine
|
32 |
|
33 |
#### 方法1: 使用预构建的 engine
|
34 |
|
35 |
-
本仓库提供了一些预构建的 TensorRT engine
|
36 |
|
37 |
-
| 支持的 GPU |
|
38 |
-
|
39 |
-
| GeForce RTX 3090 |
|
40 |
-
| GeForce RTX 4090 |
|
41 |
-
| A100 |
|
42 |
|
43 |
-
|
44 |
|
45 |
```shell
|
46 |
-
|
|
|
|
|
47 |
```
|
48 |
|
49 |
#### 方法2: 自行构建 engine
|
50 |
如果您使用不同于上面表格中的 GPU, 可以使用以下命令构建适配于当前 GPU 的 engine.
|
51 |
|
52 |
```shell
|
53 |
-
# 首先设置 TensorRT 构建相关的环境变量,我们提供了一个脚本来一键设置
|
54 |
-
source trt/activate.sh
|
55 |
-
|
56 |
# 构建 TensorRT engine. 默认会读取当前目录下的 ckpts 文件夹
|
57 |
sh trt/build_engine.sh
|
58 |
```
|
@@ -60,6 +63,9 @@ sh trt/build_engine.sh
|
|
60 |
### 4. 使用 TensorRT 模型进行推理.
|
61 |
|
62 |
```shell
|
|
|
|
|
|
|
63 |
# 使用 prompt 强化 + 文生图 TensorRT 模型进行推理
|
64 |
python sample_t2i.py --prompt "渔舟唱晚" --infer-mode trt
|
65 |
|
|
|
25 |
### 2. 安装 TensorRT 依赖
|
26 |
|
27 |
```shell
|
28 |
+
# 使用下面的命令解压并安装 TensorRT 依赖
|
29 |
sh trt/install.sh
|
30 |
+
|
31 |
+
# 设置使用或构建 TensorRT 相关的环境变量,我们提供了一个脚本来一键设置
|
32 |
+
source trt/activate.sh
|
33 |
```
|
34 |
|
35 |
### 3. 构建 TensorRT engine
|
36 |
|
37 |
#### 方法1: 使用预构建的 engine
|
38 |
|
39 |
+
本仓库提供了一些预构建的 TensorRT engine, 需要从 Huggingface 下载.
|
40 |
|
41 |
+
| 支持的 GPU | 远程地址 |
|
42 |
+
|:----------------:|:---------------------------------:|
|
43 |
+
| GeForce RTX 3090 | `engines/RTX3090/model_onnx.plan` |
|
44 |
+
| GeForce RTX 4090 | `engines/RTX4090/model_onnx.plan` |
|
45 |
+
| A100 | `engines/A100/model_onnx.plan` |
|
46 |
|
47 |
+
可以使用以下命令下载并放置在指定的位置. *注意: 请将 `<远程地址>` 替换为上表中对应 GPU 的远程地址.*
|
48 |
|
49 |
```shell
|
50 |
+
export REMOTE_PATH=<远程地址>
|
51 |
+
huggingface-cli download Tencent-Hunyuan/TensorRT-engine ${REMOTE_PATH} ./ckpts/t2i/model_trt/engine/
|
52 |
+
ln -s ${REMOTE_PATH} ./ckpts/t2i/model_trt/engine/model_onnx.plan
|
53 |
```
|
54 |
|
55 |
#### 方法2: 自行构建 engine
|
56 |
如果您使用不同于上面表格中的 GPU, 可以使用以下命令构建适配于当前 GPU 的 engine.
|
57 |
|
58 |
```shell
|
|
|
|
|
|
|
59 |
# 构建 TensorRT engine. 默认会读取当前目录下的 ckpts 文件夹
|
60 |
sh trt/build_engine.sh
|
61 |
```
|
|
|
63 |
### 4. 使用 TensorRT 模型进行推理.
|
64 |
|
65 |
```shell
|
66 |
+
# 重要: 如果您在使用 TensorRT 模型之前没有设置环境变量, 请使用以下命令设置
|
67 |
+
source trt/activate.sh
|
68 |
+
|
69 |
# 使用 prompt 强化 + 文生图 TensorRT 模型进行推理
|
70 |
python sample_t2i.py --prompt "渔舟唱晚" --infer-mode trt
|
71 |
|