AnhP commited on
Commit
3f10682
·
verified ·
1 Parent(s): a1e27cf

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +90 -297
README.md CHANGED
@@ -6,9 +6,9 @@ emoji: 🌍
6
  colorFrom: blue
7
  colorTo: blue
8
  pinned: true
9
- sdk_version: 5.35.0
10
  short_description: RVC
11
- app_file: main/app/app.py
12
  startup_duration_timeout: 1h
13
  ---
14
  <div align="center">
@@ -30,13 +30,13 @@ Công cụ chuyển đổi giọng nói chất lượng và hiệu suất cao đ
30
 
31
  </div>
32
 
33
- # Mô tả
34
 
35
  Dự án này là một công cụ chuyển đổi giọng nói đơn giản, dễ sử dụng. Với mục tiêu tạo ra các sản phẩm chuyển đổi giọng nói chất lượng cao và hiệu suất tối ưu, dự án cho phép người dùng thay đổi giọng nói một cách mượt mà, tự nhiên.
36
 
37
- # Các tính năng của dự án
38
 
39
- - Tách nhạc (MDX-Net/Demucs)
40
 
41
  - Chuyển đổi giọng nói (Chuyển đổi tệp / Chuyển đổi hàng loạt / Chuyển đổi với Whisper / Chuyển đổi văn bản)
42
 
@@ -44,7 +44,7 @@ Dự án này là một công cụ chuyển đổi giọng nói đơn giản, d
44
 
45
  - Tạo dữ liệu huấn luyện (Từ đường dẫn liên kết)
46
 
47
- - Huấn luyện mô hình (v1/v2, bộ mã hóa chất lượng cao, huấn luyện năng lượng)
48
 
49
  - Dung hợp mô hình
50
 
@@ -62,19 +62,23 @@ Dự án này là một công cụ chuyển đổi giọng nói đơn giản, d
62
 
63
  - Mô hình ONNX RVC cũng sẽ hỗ trợ chỉ mục để suy luận
64
 
65
- **Phương thức trích xuất cao độ: `pm-ac, pm-cc, pm-shs, dio, mangio-crepe-tiny, mangio-crepe-small, mangio-crepe-medium, mangio-crepe-large, mangio-crepe-full, crepe-tiny, crepe-small, crepe-medium, crepe-large, crepe-full, fcpe, fcpe-legacy, rmvpe, rmvpe-legacy, harvest, yin, pyin, swipe, piptrack, fcn`**
66
 
67
- **Các hình trích xuất nhúng: `contentvec_base, hubert_base, vietnamese_hubert_base, japanese_hubert_base, korean_hubert_base, chinese_hubert_base, portuguese_hubert_base, spin`**
68
 
 
 
 
 
 
69
  - **Các mô hình trích xuất cao độ đều có phiên bản tăng tốc ONNX trừ các phương thức hoạt động bằng trình bao bọc.**
70
- - **Các mô hình trích xuất đều có thể kết hợp với nhau để tạo ra cảm giác mới mẻ, ví dụ: `hybrid[rmvpe+harvest]`.**
71
- - **Các mô hình trích xuất nhúng có sẳn các chế độ nhúng như: fairseq, onnx, transformers, spin.**
72
 
73
- # Hướng dẫn sử dụng
74
 
75
  **Sẽ có nếu tôi thực sự rảnh...**
76
 
77
- # Cài đặt
78
 
79
  Bước 1: Cài đặt các phần phụ trợ cần thiết
80
 
@@ -91,7 +95,7 @@ Cài đặt bằng github:
91
  - Vào https://github.com/PhamHuynhAnh16/Vietnamese-RVC
92
  - Nhấn vào `<> Code` màu xanh lá chọn `Download ZIP`
93
  - Giải nén `Vietnamese-RVC-main.zip`
94
- - Vào thư mục Vietnamese-RVC-main chọn vào thanh Path nhập `cmd` và nhấn Enter
95
 
96
  Bước 3: Cài đặt thư viện cần thiết:
97
 
@@ -99,34 +103,75 @@ Nhập lệnh:
99
  ```
100
  python -m venv env
101
  env\\Scripts\\activate
 
 
 
102
  ```
103
 
104
- Đối với CPU:
 
 
 
 
105
  ```
106
- python -m pip install -r requirements.txt
107
  ```
108
 
109
- Đối với CUDA (Có thể thay cu118 thành bản cu128 mới hơn nếu GPU hỗ trợ):
 
 
 
 
 
110
  ```
111
- python -m pip install torch torchaudio torchvision --index-url https://download.pytorch.org/whl/cu118
112
- python -m pip install -r requirements.txt
 
113
  ```
114
 
115
- Đối với AMD:
 
 
 
 
116
  ```
117
- python -m pip install torch==2.6.0 torchaudio==2.6.0 torchvision
118
- python -m pip install https://github.com/artyom-beilis/pytorch_dlprim/releases/download/0.2.0/pytorch_ocl-0.2.0+torch2.6-cp311-none-win_amd64.whl
119
- python -m pip install onnxruntime-directml
120
- python -m pip install -r requirements.txt
 
121
  ```
122
 
123
- Lưu ý đối với AMD:
124
- - Chỉ cài đặt AMD trên python 3.11 vì DLPRIM không bản cho python 3.10.
 
125
  - Demucs có thể gây quá tải và tràn bộ nhớ đối với GPU (nếu cần sử dụng demucs hãy mở tệp config.json trong main\configs sửa đối số demucs_cpu_mode thành true).
126
- - DDP không hỗ trợ huấn luyện đa GPU đối với OPENCL (AMD).
127
  - Một số thuật toán khác phải chạy trên cpu nên có thể hiệu suất của GPU có thể không sử dụng hết.
128
 
129
- # Sử dụng
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
130
 
131
  **Sử dụng với Google Colab**
132
  - Mở Google Colab: [Vietnamese-RVC](https://colab.research.google.com/github/PhamHuynhAnh16/Vietnamese-RVC-ipynb/blob/main/Vietnamese-RVC.ipynb)
@@ -153,256 +198,27 @@ env\\Scripts\\python.exe main/app/run_tensorboard.py
153
  python main\\app\\parser.py --help
154
  ```
155
 
156
- # Cài đặt, sử dụng đơn giản
157
 
158
  **Cài đặt phiên bản releases từ [Vietnamese_RVC](https://github.com/PhamHuynhAnh16/Vietnamese-RVC/releases)**
159
  - Chọn bản đúng với bạn và tải về máy.
160
  - Giải nén dự án.
161
  - Chạy tệp run_app.bat để mở giao diện hoạt động.
162
 
163
- # Cấu trúc chính của mã nguồn:
164
-
165
- <pre>
166
- Vietnamese-RVC-main
167
- ├── assets
168
- │ ├── binary
169
- │ │ ├── decrypt.bin
170
- │ │ └── world.bin
171
- │ ├── f0
172
- │ ├── languages
173
- │ │ ├── en-US.json
174
- │ │ └── vi-VN.json
175
- │ ├── logs
176
- │ │ └── mute
177
- │ │ ├── energy
178
- │ │ │ └── mute.wav.npy
179
- │ │ ├── f0
180
- │ │ │ └── mute.wav.npy
181
- │ │ ├── f0_voiced
182
- │ │ │ └── mute.wav.npy
183
- │ │ ├── sliced_audios
184
- │ │ │ ├── mute32000.wav
185
- │ │ │ ├── mute40000.wav
186
- │ │ │ └── mute48000.wav
187
- │ │ ├── sliced_audios_16k
188
- │ │ │ └── mute.wav
189
- │ │ ├── v1_extracted
190
- │ │ │ ├── mute.npy
191
- │ │ │ ├── mute_chinese.npy
192
- │ │ │ ├── mute_japanese.npy
193
- │ │ │ ├── mute_korean.npy
194
- │ │ │ ├── mute_portuguese.npy
195
- │ │ │ ├── mute_vietnamese.npy
196
- │ │ │ └── mute_spin.npy
197
- │ │ └── v2_extracted
198
- │ │ ├── mute.npy
199
- │ │ ├── mute_chinese.npy
200
- │ │ ├── mute_japanese.npy
201
- │ │ ├── mute_korean.npy
202
- │ │ ├── mute_portuguese.npy
203
- │ │ ├── mute_vietnamese.npy
204
- │ │ └── mute_spin.npy
205
- │ ├── models
206
- │ │ ├── embedders
207
- │ │ ├── predictors
208
- │ │ ├── pretrained_custom
209
- │ │ ├── pretrained_v1
210
- │ │ ├── pretrained_v2
211
- │ │ ├── speaker_diarization
212
- │ │ │ ├── assets
213
- │ │ │ │ ├── gpt2.tiktoken
214
- │ │ │ │ ├── mel_filters.npz
215
- │ │ │ │ └── multilingual.tiktoken
216
- │ │ │ └── models
217
- │ │ └── uvr5
218
- │ ├── presets
219
- │ ├── weights
220
- │ └── ico.png
221
- ├── audios
222
- ├── dataset
223
- ├── main
224
- │ ├── app
225
- │ │ ├── core
226
- │ │ │ ├── downloads.py
227
- │ │ │ ├── editing.py
228
- │ │ │ ├── f0_extract.py
229
- │ │ │ ├── inference.py
230
- │ │ │ ├── model_utils.py
231
- │ │ │ ├── presets.py
232
- │ │ │ ├── process.py
233
- │ │ │ ├── restart.py
234
- │ │ │ ├── separate.py
235
- │ │ │ ├── training.py
236
- │ │ │ ├── tts.py
237
- │ │ │ ├── ui.py
238
- │ │ │ └── utils.py
239
- │ │ ├── tabs
240
- │ │ │ ├── downloads
241
- │ │ │ │ └── downloads.py
242
- │ │ │ ├── editing
243
- │ │ │ │ ├── editing.py
244
- │ │ │ │ └── child
245
- │ │ │ │ ├── audio_effects.py
246
- │ │ │ │ └── quirk.py
247
- │ │ │ ├── extra
248
- │ │ │ │ ├── extra.py
249
- │ │ │ │ └── child
250
- │ │ │ │ ├── convert_model.py
251
- │ │ │ │ ├── f0_extract.py
252
- │ │ │ │ ├── fushion.py
253
- │ │ │ │ ├── read_model.py
254
- │ │ │ │ ├── report_bugs.py
255
- │ │ │ │ └── settings.py
256
- │ │ │ ├── inference
257
- │ │ │ │ ├── inference.py
258
- │ │ │ │ └── child
259
- │ │ │ │ ├── convert.py
260
- │ │ │ │ ├── convert_tts.py
261
- │ │ │ │ ├── convert_with_whisper.py
262
- │ │ │ │ └── separate.py
263
- │ │ │ └── training
264
- │ │ │ ├── training.py
265
- │ │ │ └── child
266
- │ │ │ ├── create_dataset.py
267
- │ │ │ └── training.py
268
- │ │ ├── app.py
269
- │ │ ├── parser.py
270
- │ │ ├── run_tensorboard.py
271
- │ │ └── variables.py
272
- │ ├── configs
273
- │ │ ├── config.json
274
- │ │ ├── config.py
275
- │ │ ├── v1
276
- │ │ │ ├── 32000.json
277
- │ │ │ ├── 40000.json
278
- │ │ │ └── 48000.json
279
- │ │ └── v2
280
- │ │ ├── 32000.json
281
- │ │ ├── 40000.json
282
- │ │ └── 48000.json
283
- │ ├── inference
284
- │ │ ├── audio_effects.py
285
- │ │ ├── create_dataset.py
286
- │ │ ├── create_index.py
287
- │ │ ├── separator_music.py
288
- │ │ ├── extracting
289
- │ │ │ ├── embedding.py
290
- │ │ │ ├── extract.py
291
- │ │ │ ├── feature.py
292
- │ │ │ ├── preparing_files.py
293
- │ │ │ ├── rms.py
294
- │ │ │ └── setup_path.py
295
- │ │ ├── training
296
- │ │ │ ├── train.py
297
- │ │ │ ├── data_utils.py
298
- │ │ │ ├── losses.py
299
- │ │ │ ├── mel_processing.py
300
- │ │ │ └── utils.py
301
- │ │ ├── conversion
302
- │ │ │ ├── convert.py
303
- │ │ │ ├── pipeline.py
304
- │ │ │ └── utils.py
305
- │ │ └── preprocess
306
- │ │ ├── preprocess.py
307
- │ │ └── slicer2.py
308
- │ ├── library
309
- │ │ ├── utils.py
310
- │ │ ├── opencl.py
311
- │ │ ├── algorithm
312
- │ │ │ ├── attentions.py
313
- │ │ │ ├── commons.py
314
- │ │ │ ├── discriminators.py
315
- │ │ │ ├── encoders.py
316
- │ │ │ ├── modules.py
317
- │ │ │ ├── normalization.py
318
- │ │ │ ├── onnx_export.py
319
- │ │ │ ├── residuals.py
320
- │ │ │ ├── stftpitchshift.py
321
- │ │ │ └── synthesizers.py
322
- │ │ ├── architectures
323
- │ │ │ ├── demucs_separator.py
324
- │ │ │ ├── fairseq.py
325
- │ │ │ └── mdx_separator.py
326
- │ │ ├── generators
327
- │ │ │ ├── hifigan.py
328
- │ │ │ ├── mrf_hifigan.py
329
- │ │ │ ├── nsf_hifigan.py
330
- │ │ │ └── refinegan.py
331
- │ │ ├── predictors
332
- │ │ │ ├── CREPE
333
- │ │ │ │ ├── CREPE.py
334
- │ │ │ │ ├── filter.py
335
- │ │ │ │ └── model.py
336
- │ │ │ ├── FCN
337
- │ │ │ │ ├── FCN.py
338
- │ │ │ │ ├── convert.py
339
- │ │ │ │ └── model.py
340
- │ │ │ ├── FCPE
341
- │ │ │ │ ├── attentions.py
342
- │ │ │ │ ├── encoder.py
343
- │ │ │ │ ├── FCPE.py
344
- │ │ │ │ ├── stft.py
345
- │ │ │ │ ├── utils.py
346
- │ │ │ │ └── wav2mel.py
347
- │ │ │ ├── RMVPE
348
- │ │ │ │ ├── RMVPE.py
349
- │ │ │ │ ├── deepunet.py
350
- │ │ │ │ ├── e2e.py
351
- │ │ │ │ └── mel.py
352
- │ │ │ ├── WORLD
353
- │ │ │ │ ├── WORLD.py
354
- │ │ │ │ └── SWIPE.py
355
- │ │ │ └── Generator.py
356
- │ │ ├── speaker_diarization
357
- │ │ │ ├── audio.py
358
- │ │ │ ├── ECAPA_TDNN.py
359
- │ │ │ ├── embedding.py
360
- │ │ │ ├── encoder.py
361
- │ │ │ ├── features.py
362
- │ │ │ ├── parameter_transfer.py
363
- │ │ │ ├── segment.py
364
- │ │ │ ├── speechbrain.py
365
- │ │ │ └── whisper.py
366
- │ │ └── uvr5_lib
367
- │ │ ├── common_separator.py
368
- │ │ ├── separator.py
369
- │ │ ├── spec_utils.py
370
- │ │ └── demucs
371
- │ │ ├── apply.py
372
- │ │ ├── demucs.py
373
- │ │ ├── hdemucs.py
374
- │ │ ├── htdemucs.py
375
- │ │ ├── states.py
376
- │ │ └── utils.py
377
- │ └── tools
378
- │ ├── gdown.py
379
- │ ├── huggingface.py
380
- │ ├── mediafire.py
381
- │ ├── meganz.py
382
- │ ├── noisereduce.py
383
- │ └── pixeldrain.py
384
- ├── docker-compose-amd.yaml
385
- ├── docker-compose-cpu.yaml
386
- ├── docker-compose-cuda118.yaml
387
- ├── docker-compose-cuda128.yaml
388
- ├── Dockerfile
389
- ├── Dockerfile.amd
390
- ├── Dockerfile.cuda118
391
- ├── Dockerfile.cuda128
392
- ├── LICENSE
393
- ├── README.md
394
- ├── requirements.txt
395
- ├── run_app.bat
396
- └── tensorboard.bat
397
- </pre>
398
-
399
- # LƯU Ý
400
 
401
  - **Hiện tại các bộ mã hóa mới như MRF HIFIGAN vẫn chưa đầy đủ các bộ huấn luyện trước**
402
  - **Bộ mã hóa MRF HIFIGAN và REFINEGAN không hỗ trợ huấn luyện khi không không huấn luyện cao độ**
 
403
  - **Các mô hình trong kho lưu trữ Vietnamese-RVC được thu thập rải rác trên AI Hub, HuggingFace và các các kho lưu trữ khác. Có thể mang các giấy phép bản quyền khác nhau**
404
 
405
- # Tuyên bố miễn trừ trách nhiệm
406
 
407
  - **Dự án Vietnamese-RVC được phát triển với mục đích nghiên cứu, học tập và giải trí cá nhân. Tôi không khuyến khích cũng như không chịu trách nhiệm đối với bất kỳ hành vi lạm dụng công nghệ chuyển đổi giọng nói vì mục đích lừa đảo, giả mạo danh tính, hoặc vi phạm quyền riêng tư, bản quyền của bất kỳ cá nhân hay tổ chức nào.**
408
 
@@ -412,7 +228,7 @@ Vietnamese-RVC-main
412
 
413
  - **Tác giả của dự án không chịu trách nhiệm pháp lý đối với bất kỳ hậu quả nào phát sinh từ việc sử dụng phần mềm này.**
414
 
415
- # Điều khoản sử dụng
416
 
417
  - Bạn phải đảm bảo rằng các nội dung âm thanh bạn tải lên và chuyển đổi qua dự án này không vi phạm quyền sở hữu trí tuệ của bên thứ ba.
418
 
@@ -422,7 +238,7 @@ Vietnamese-RVC-main
422
 
423
  - Tôi sẽ không chịu trách nhiệm với bất kỳ thiệt hại trực tiếp hoặc gián tiếp nào phát sinh từ việc sử dụng dự án này.
424
 
425
- # Dự án này được xây dựng dựa trên các dự án như sau
426
 
427
  | Tác Phẩm | Tác Giả | Giấy Phép |
428
  |--------------------------------------------------------------------------------------------------------------------------------|-------------------------|-------------|
@@ -434,7 +250,7 @@ Vietnamese-RVC-main
434
  | **[Hubert-No-Fairseq](https://github.com/PhamHuynhAnh16/hubert-no-fairseq)** | Phạm Huỳnh Anh | MIT License |
435
  | **[Local-attention](https://github.com/lucidrains/local-attention)** | Phil Wang | MIT License |
436
  | **[TorchFcpe](https://github.com/CNChTu/FCPE/tree/main)** | CN_ChiTu | MIT License |
437
- | **[FcpeONNX](https://github.com/deiteris/voice-changer/blob/master-custom/server/utils/fcpe_onnx.py)** | Yury | MIT License |
438
  | **[ContentVec](https://github.com/auspicious3000/contentvec)** | Kaizhi Qian | MIT License |
439
  | **[Mediafiredl](https://github.com/Gann4Life/mediafiredl)** | Santiago Ariel Mansilla | MIT License |
440
  | **[Noisereduce](https://github.com/timsainb/noisereduce)** | Tim Sainburg | MIT License |
@@ -445,39 +261,16 @@ Vietnamese-RVC-main
445
  | **[PyannoteAudio](https://github.com/pyannote/pyannote-audio)** | pyannote | MIT License |
446
  | **[AudioEditingCode](https://github.com/HilaManor/AudioEditingCode)** | Hila Manor | MIT License |
447
  | **[StftPitchShift](https://github.com/jurihock/stftPitchShift)** | Jürgen Hock | MIT License |
448
- | **[Codename-RVC-Fork-3](https://github.com/codename0og/codename-rvc-fork-3)** | Codename;0 | MIT License |
449
  | **[Penn](https://github.com/interactiveaudiolab/penn)** | Interactive Audio Lab | MIT License |
 
 
450
 
451
- # Kho mô hình của công cụ tìm kiếm mô hình
452
 
453
  - **[VOICE-MODELS.COM](https://voice-models.com/)**
454
 
455
- # Các phương pháp trích xuất F0 trong RVC
456
-
457
- Tài liệu này trình bày chi tiết các phương pháp trích xuất cao độ được sử dụng, thông tin về ưu, nhược điểm, sức mạnh và độ tin cậy của từng phương pháp theo trải nghiệm cá nhân.
458
-
459
- | Phương pháp | Loại | Ưu điểm | Hạn chế | Sức mạnh | Độ tin cậy |
460
- |--------------------|----------------|---------------------------|------------------------------|--------------------|--------------------|
461
- | pm | Praat | Nhanh | Kém chính xác | Thấp | Thấp |
462
- | dio | PYWORLD | Thích hợp với Rap | Kém chính xác với tần số cao | Trung bình | Trung bình |
463
- | harvest | PYWORLD | Chính xác hơn DIO | Xử lý chậm hơn | Cao | Rất cao |
464
- | crepe | Deep Learning | Chính xác cao | Yêu cầu GPU | Rất cao | Rất cao |
465
- | mangio-crepe | crepe nofilter | Tối ưu hóa cho RVC | Đôi khi kém crepe gốc | Trung bình đến cao | Trung bình đến cao |
466
- | fcpe | Deep Learning | Chính xác, thời gian thực | Cần GPU mạnh | Khá | Trung bình |
467
- | fcpe-legacy | Old | Chính xác, thời gian thực | Cũ hơn | Khá | Trung bình |
468
- | rmvpe | Deep Learning | Hiệu quả với giọng hát | Tốn tài nguyên | Rất cao | Xuất sắc |
469
- | rmvpe-legacy | Old | Tính toán với Fmin-max | Cũ hơn | Cao | Khá |
470
- | yin | Librosa | Đơn giản, hiệu quả | Dễ lỗi bội | Trung bình | Thấp |
471
- | pyin | Librosa | Ổn định hơn YIN | Tính toán phức tạp hơn | Khá | Khá |
472
- | swipe | WORLD | Độ chính xác cao | Nhạy cảm với nhiễu | Cao | Khá |
473
- | piptrack | Librosa | Nhanh | Kém chính xác | Thấp | Thấp |
474
- | fcn | Deep Learning | Không Rõ | F0 Thấp | Không Rõ | Không Rõ |
475
-
476
- # Báo cáo lỗi
477
-
478
- - **Với trường hợp gặp lỗi khi sử dụng mã nguồn này tôi thực sự xin lỗi bạn vì trải nghiệm không tốt này, bạn có thể gửi báo cáo lỗi thông qua cách phía dưới**
479
- - **Bạn có thể báo cáo lỗi cho tôi thông qua hệ thống báo cáo lỗi webhook trong giao diện sử dụng**
480
  - **Với trường hợp hệ thống báo cáo lỗi không hoạt động bạn có thể báo cáo lỗi cho tôi thông qua Discord `pham_huynh_anh` Hoặc [ISSUE](https://github.com/PhamHuynhAnh16/Vietnamese-RVC/issues)**
481
 
482
- # ☎️ Liên hệ tôi
483
  - Discord: **pham_huynh_anh**
 
6
  colorFrom: blue
7
  colorTo: blue
8
  pinned: true
9
+ sdk_version: 5.50.0
10
  short_description: RVC
11
+ app_file: main/app/app.py --client
12
  startup_duration_timeout: 1h
13
  ---
14
  <div align="center">
 
30
 
31
  </div>
32
 
33
+ ## Mô tả
34
 
35
  Dự án này là một công cụ chuyển đổi giọng nói đơn giản, dễ sử dụng. Với mục tiêu tạo ra các sản phẩm chuyển đổi giọng nói chất lượng cao và hiệu suất tối ưu, dự án cho phép người dùng thay đổi giọng nói một cách mượt mà, tự nhiên.
36
 
37
+ ## Các tính năng của dự án
38
 
39
+ - Tách nhạc (MDX-Net / Demucs / VR)
40
 
41
  - Chuyển đổi giọng nói (Chuyển đổi tệp / Chuyển đổi hàng loạt / Chuyển đổi với Whisper / Chuyển đổi văn bản)
42
 
 
44
 
45
  - Tạo dữ liệu huấn luyện (Từ đường dẫn liên kết)
46
 
47
+ - Huấn luyện mô hình (v1 / v2, bộ mã hóa chất lượng cao, huấn luyện năng lượng)
48
 
49
  - Dung hợp mô hình
50
 
 
62
 
63
  - Mô hình ONNX RVC cũng sẽ hỗ trợ chỉ mục để suy luận
64
 
65
+ - Chuyển đổi giọng nói thời gian thực
66
 
67
+ - Tạo tham chiếu huấn luyện
68
 
69
+ **Phương thức trích xuất cao độ: `pm-ac, pm-cc, pm-shs, dio, mangio-crepe-tiny, mangio-crepe-small, mangio-crepe-medium, mangio-crepe-large, mangio-crepe-full, crepe-tiny, crepe-small, crepe-medium, crepe-large, crepe-full, fcpe, fcpe-legacy, fcpe-previous, rmvpe, rmvpe-clipping, rmvpe-medfilt, rmvpe-clipping-medfilt, harvest, yin, pyin, swipe, piptrack, penn, mangio-penn, djcm, djcm-clipping, djcm-medfilt, djcm-clipping-medfilt, swift, pesto`**
70
+
71
+ **Các mô hình trích xuất nhúng: `contentvec_base, hubert_base, vietnamese_hubert_base, japanese_hubert_base, korean_hubert_base, chinese_hubert_base, portuguese_hubert_base, spin-v1, spin-v2, whisper-tiny, whisper-tiny.en, whisper-base, whisper-base.en, whisper-small, whisper-small.en, whisper-medium, whisper-medium.en, whisper-large-v1, whisper-large-v2, whisper-large-v3, whisper-large-v3-turbo`**
72
+
73
+ - **Các mô hình trích xuất nhúng có sẳn các chế độ nhúng như: fairseq, onnx, transformers, spin, whisper.**
74
  - **Các mô hình trích xuất cao độ đều có phiên bản tăng tốc ONNX trừ các phương thức hoạt động bằng trình bao bọc.**
75
+ - **Các mô hình trích xuất cao độ đều có thể kết hợp với nhau theo tỉ lệ để tạo ra cảm giác mới mẻ, ví dụ: `hybrid[rmvpe+harvest]`.**
 
76
 
77
+ ## Hướng dẫn sử dụng
78
 
79
  **Sẽ có nếu tôi thực sự rảnh...**
80
 
81
+ ## Cài đặt nâng cao
82
 
83
  Bước 1: Cài đặt các phần phụ trợ cần thiết
84
 
 
95
  - Vào https://github.com/PhamHuynhAnh16/Vietnamese-RVC
96
  - Nhấn vào `<> Code` màu xanh lá chọn `Download ZIP`
97
  - Giải nén `Vietnamese-RVC-main.zip`
98
+ - Vào thư mục Vietnamese-RVC-main chọn vào thanh đường dẫn nhập `cmd` và nhấn Enter
99
 
100
  Bước 3: Cài đặt thư viện cần thiết:
101
 
 
103
  ```
104
  python -m venv env
105
  env\\Scripts\\activate
106
+
107
+ python -m pip install uv
108
+ uv pip install six packaging python-dateutil platformdirs pywin32 onnxconverter_common wget
109
  ```
110
 
111
+ Cài đặt đối với các thiết bị khác nhau
112
+
113
+ <details>
114
+ <summary>Đối với CPU</summary>
115
+
116
  ```
117
+ uv pip install -r requirements.txt
118
  ```
119
 
120
+ </details>
121
+
122
+ <details>
123
+ <summary>Đối với CUDA</summary>
124
+
125
+ Có thể thay cu118 thành bản cu128 mới hơn n���u GPU hỗ trợ:
126
  ```
127
+ uv pip install numpy==1.26.4 numba==0.61.0
128
+ uv pip install torch torchaudio torchvision --index-url https://download.pytorch.org/whl/cu118
129
+ uv pip install -r requirements.txt
130
  ```
131
 
132
+ </details>
133
+
134
+ <details>
135
+ <summary>Đối với OPENCL (AMD)</summary>
136
+
137
  ```
138
+ uv pip install numpy==1.26.4 numba==0.61.0
139
+ uv pip install torch==2.6.0 torchaudio==2.6.0 torchvision
140
+ uv pip install https://github.com/artyom-beilis/pytorch_dlprim/releases/download/0.2.0/pytorch_ocl-0.2.0+torch2.6-cp311-none-win_amd64.whl
141
+ uv pip install onnxruntime-directml
142
+ uv pip install -r requirements.txt
143
  ```
144
 
145
+ Lưu ý:
146
+ - vẻ như OPENCL đã không còn được hỗ trợ tiếp.
147
+ - Chỉ nên cài đặt trên python 3.11 do không có bản biên dịch cho python 3.10 với torch 2.6.0.
148
  - Demucs có thể gây quá tải và tràn bộ nhớ đối với GPU (nếu cần sử dụng demucs hãy mở tệp config.json trong main\configs sửa đối số demucs_cpu_mode thành true).
149
+ - DDP không hỗ trợ huấn luyện đa GPU đối với OPENCL.
150
  - Một số thuật toán khác phải chạy trên cpu nên có thể hiệu suất của GPU có thể không sử dụng hết.
151
 
152
+ </details>
153
+
154
+ <details>
155
+ <summary>Đối với DIRECTML (AMD)</summary>
156
+
157
+ ```
158
+ uv pip install numpy==1.26.4 numba==0.61.0
159
+ uv pip install torch==2.4.1 torchaudio==2.4.1 torchvision
160
+ uv pip install torch-directml==0.2.5.dev240914
161
+ uv pip install onnxruntime-directml
162
+ uv pip install -r requirements.txt
163
+ ```
164
+
165
+ Lưu ý:
166
+ - Directml đã ngừng phát triển một khoảng thời gian dài.
167
+ - Directml không hỗ trợ quá tốt tác vụ đa luồng nên khi chạy trích xuất thường sẽ bị khóa ở 1 luồng.
168
+ - Directml có hỗ trợ 1 phần fp16 nhưng không được khuyến khích sử dụng vì có thể chỉ nhận được hiệu năng tương đương fp32.
169
+ - Directml không có hàm để dọn dẹp bộ nhớ, tôi đã tạo 1 hàm đơn giản để dọn dẹp bộ nhớ nhưng có thể sẽ không quá hiệu quả.
170
+ - Directml được thiết kế để suy luận chứ không phải dùng để huấn luyện mặc dù có thể hoàn toàn chạy được huấn luyện nhưng sẽ không được khuyến khích.
171
+
172
+ </details>
173
+
174
+ ## Sử dụng
175
 
176
  **Sử dụng với Google Colab**
177
  - Mở Google Colab: [Vietnamese-RVC](https://colab.research.google.com/github/PhamHuynhAnh16/Vietnamese-RVC-ipynb/blob/main/Vietnamese-RVC.ipynb)
 
198
  python main\\app\\parser.py --help
199
  ```
200
 
201
+ ## Cài đặt, sử dụng đơn giản
202
 
203
  **Cài đặt phiên bản releases từ [Vietnamese_RVC](https://github.com/PhamHuynhAnh16/Vietnamese-RVC/releases)**
204
  - Chọn bản đúng với bạn và tải về máy.
205
  - Giải nén dự án.
206
  - Chạy tệp run_app.bat để mở giao diện hoạt động.
207
 
208
+ **Sử dụng tệp run_install.bat**
209
+ - Tải mã nguồn về máy.
210
+ - Giải nén dự án.
211
+ - Chạy tệp run_install.bat để bắt đầu cài đặt.
212
+ - Chạy tệp run_app.bat để mở giao diện hoạt động.
213
+
214
+ ## LƯU Ý
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
215
 
216
  - **Hiện tại các bộ mã hóa mới như MRF HIFIGAN vẫn chưa đầy đủ các bộ huấn luyện trước**
217
  - **Bộ mã hóa MRF HIFIGAN và REFINEGAN không hỗ trợ huấn luyện khi không không huấn luyện cao độ**
218
+ - **Huấn luyện năng lương có thể cải thiện chất lượng mô hình nhưng chưa có mô hình huấn luyện trước dành cho tính năng này**
219
  - **Các mô hình trong kho lưu trữ Vietnamese-RVC được thu thập rải rác trên AI Hub, HuggingFace và các các kho lưu trữ khác. Có thể mang các giấy phép bản quyền khác nhau**
220
 
221
+ ## Tuyên bố miễn trừ trách nhiệm
222
 
223
  - **Dự án Vietnamese-RVC được phát triển với mục đích nghiên cứu, học tập và giải trí cá nhân. Tôi không khuyến khích cũng như không chịu trách nhiệm đối với bất kỳ hành vi lạm dụng công nghệ chuyển đổi giọng nói vì mục đích lừa đảo, giả mạo danh tính, hoặc vi phạm quyền riêng tư, bản quyền của bất kỳ cá nhân hay tổ chức nào.**
224
 
 
228
 
229
  - **Tác giả của dự án không chịu trách nhiệm pháp lý đối với bất kỳ hậu quả nào phát sinh từ việc sử dụng phần mềm này.**
230
 
231
+ ## Điều khoản sử dụng
232
 
233
  - Bạn phải đảm bảo rằng các nội dung âm thanh bạn tải lên và chuyển đổi qua dự án này không vi phạm quyền sở hữu trí tuệ của bên thứ ba.
234
 
 
238
 
239
  - Tôi sẽ không chịu trách nhiệm với bất kỳ thiệt hại trực tiếp hoặc gián tiếp nào phát sinh từ việc sử dụng dự án này.
240
 
241
+ ## Dự án này được xây dựng dựa trên các dự án như sau
242
 
243
  | Tác Phẩm | Tác Giả | Giấy Phép |
244
  |--------------------------------------------------------------------------------------------------------------------------------|-------------------------|-------------|
 
250
  | **[Hubert-No-Fairseq](https://github.com/PhamHuynhAnh16/hubert-no-fairseq)** | Phạm Huỳnh Anh | MIT License |
251
  | **[Local-attention](https://github.com/lucidrains/local-attention)** | Phil Wang | MIT License |
252
  | **[TorchFcpe](https://github.com/CNChTu/FCPE/tree/main)** | CN_ChiTu | MIT License |
253
+ | **[FcpeONNX](https://github.com/deiteris/voice-changer/blob/master-custom/server/utils/fcpe_onnx.py)** | Yury deiteris | MIT License |
254
  | **[ContentVec](https://github.com/auspicious3000/contentvec)** | Kaizhi Qian | MIT License |
255
  | **[Mediafiredl](https://github.com/Gann4Life/mediafiredl)** | Santiago Ariel Mansilla | MIT License |
256
  | **[Noisereduce](https://github.com/timsainb/noisereduce)** | Tim Sainburg | MIT License |
 
261
  | **[PyannoteAudio](https://github.com/pyannote/pyannote-audio)** | pyannote | MIT License |
262
  | **[AudioEditingCode](https://github.com/HilaManor/AudioEditingCode)** | Hila Manor | MIT License |
263
  | **[StftPitchShift](https://github.com/jurihock/stftPitchShift)** | Jürgen Hock | MIT License |
 
264
  | **[Penn](https://github.com/interactiveaudiolab/penn)** | Interactive Audio Lab | MIT License |
265
+ | **[Voice Changer](https://github.com/deiteris/voice-changer)** | Yury deiteris | MIT License |
266
+ | **[Pesto](https://github.com/SonyCSLParis/pesto)** | Sony CSL Paris | LGPL 3.0 |
267
 
268
+ ## Kho mô hình của công cụ tìm kiếm mô hình
269
 
270
  - **[VOICE-MODELS.COM](https://voice-models.com/)**
271
 
272
+ ## Báo cáo lỗi
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
273
  - **Với trường hợp hệ thống báo cáo lỗi không hoạt động bạn có thể báo cáo lỗi cho tôi thông qua Discord `pham_huynh_anh` Hoặc [ISSUE](https://github.com/PhamHuynhAnh16/Vietnamese-RVC/issues)**
274
 
275
+ ## ☎️ Liên hệ tôi
276
  - Discord: **pham_huynh_anh**