Spaces:
Sleeping
Sleeping
Commit
·
ec2d6a2
1
Parent(s):
f643d55
fix error gradio
Browse files
app.py
CHANGED
@@ -42,6 +42,9 @@ MAX_INPUT_TOKEN_LENGTH = int(os.getenv("MAX_INPUT_TOKEN_LENGTH", "128000")) #
|
|
42 |
# Xác định thiết bị sử dụng (GPU nếu có, ngược lại CPU)
|
43 |
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
|
44 |
|
|
|
|
|
|
|
45 |
model_id = "meta-llama/Llama-3.2-3B-Instruct" # ID mô hình
|
46 |
|
47 |
# Tải tokenizer
|
@@ -421,7 +424,7 @@ def get_step_done() -> int:
|
|
421 |
|
422 |
# ---------------------------- Định Nghĩa Huấn Luyện ---------------------------- #
|
423 |
|
424 |
-
@
|
425 |
def run_training() -> str:
|
426 |
"""
|
427 |
Hàm huấn luyện mô hình sử dụng GPU với thời gian hạn chế.
|
@@ -481,7 +484,7 @@ def run_training() -> str:
|
|
481 |
return "Huấn luyện hoàn tất hoặc đã tiếp tục từ checkpoint."
|
482 |
|
483 |
# Hàm Tự Động Hóa Việc Gọi Lặp Lại Hàm Huấn Luyện
|
484 |
-
@
|
485 |
def continuous_training(total_steps=300, steps_per_call=50):
|
486 |
"""
|
487 |
Hàm tự động gọi lại `run_training` để hoàn thành quá trình huấn luyện.
|
|
|
42 |
# Xác định thiết bị sử dụng (GPU nếu có, ngược lại CPU)
|
43 |
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
|
44 |
|
45 |
+
# Hiển thị sử dụng GPU hoặc CPU
|
46 |
+
print(device)
|
47 |
+
|
48 |
model_id = "meta-llama/Llama-3.2-3B-Instruct" # ID mô hình
|
49 |
|
50 |
# Tải tokenizer
|
|
|
424 |
|
425 |
# ---------------------------- Định Nghĩa Huấn Luyện ---------------------------- #
|
426 |
|
427 |
+
@spaces.GPU # Sử dụng decorator phù hợp nếu cần
|
428 |
def run_training() -> str:
|
429 |
"""
|
430 |
Hàm huấn luyện mô hình sử dụng GPU với thời gian hạn chế.
|
|
|
484 |
return "Huấn luyện hoàn tất hoặc đã tiếp tục từ checkpoint."
|
485 |
|
486 |
# Hàm Tự Động Hóa Việc Gọi Lặp Lại Hàm Huấn Luyện
|
487 |
+
@spaces.GPU
|
488 |
def continuous_training(total_steps=300, steps_per_call=50):
|
489 |
"""
|
490 |
Hàm tự động gọi lại `run_training` để hoàn thành quá trình huấn luyện.
|