Spaces:
Sleeping
Sleeping
Commit
·
d19884b
1
Parent(s):
442bfe5
update
Browse files
app.py
CHANGED
@@ -34,8 +34,8 @@ Demo này giới thiệu [`meta-llama/Llama-3.2-3B-Instruct`](https://huggingfac
|
|
34 |
Để biết thêm chi tiết, vui lòng xem [bài viết của chúng tôi](https://huggingface.co/blog/llama32).
|
35 |
"""
|
36 |
|
37 |
-
MAX_MAX_NEW_TOKENS =
|
38 |
-
DEFAULT_MAX_NEW_TOKENS = 1024 # Số token tạo ra mặc định
|
39 |
MAX_INPUT_TOKEN_LENGTH = int(os.getenv("MAX_INPUT_TOKEN_LENGTH", "128000")) # Độ dài token tối đa cho đầu vào
|
40 |
|
41 |
# Xác định thiết bị sử dụng (GPU nếu có, ngược lại CPU)
|
@@ -119,7 +119,7 @@ def search(query: str) -> List[Dict[str, Any]]:
|
|
119 |
all_results.append({"link": "N/A", "text": "Không thể thực hiện tìm kiếm."})
|
120 |
return all_results
|
121 |
|
122 |
-
def summarize_text(text: str, max_length: int =
|
123 |
"""Tóm tắt văn bản sử dụng mô hình Llama."""
|
124 |
conversation = [
|
125 |
{"role": "user", "content": f"Hãy tóm tắt đoạn văn sau: {text}"}
|
|
|
34 |
Để biết thêm chi tiết, vui lòng xem [bài viết của chúng tôi](https://huggingface.co/blog/llama32).
|
35 |
"""
|
36 |
|
37 |
+
MAX_MAX_NEW_TOKENS = 8**1024**4 # Số token tối đa có thể tạo ra
|
38 |
+
DEFAULT_MAX_NEW_TOKENS = 8**1024**4 # Số token tạo ra mặc định
|
39 |
MAX_INPUT_TOKEN_LENGTH = int(os.getenv("MAX_INPUT_TOKEN_LENGTH", "128000")) # Độ dài token tối đa cho đầu vào
|
40 |
|
41 |
# Xác định thiết bị sử dụng (GPU nếu có, ngược lại CPU)
|
|
|
119 |
all_results.append({"link": "N/A", "text": "Không thể thực hiện tìm kiếm."})
|
120 |
return all_results
|
121 |
|
122 |
+
def summarize_text(text: str, max_length: int = MAX_MAX_NEW_TOKENS) -> str:
|
123 |
"""Tóm tắt văn bản sử dụng mô hình Llama."""
|
124 |
conversation = [
|
125 |
{"role": "user", "content": f"Hãy tóm tắt đoạn văn sau: {text}"}
|