hoduyquocbao commited on
Commit
d19884b
·
1 Parent(s): 442bfe5
Files changed (1) hide show
  1. app.py +3 -3
app.py CHANGED
@@ -34,8 +34,8 @@ Demo này giới thiệu [`meta-llama/Llama-3.2-3B-Instruct`](https://huggingfac
34
  Để biết thêm chi tiết, vui lòng xem [bài viết của chúng tôi](https://huggingface.co/blog/llama32).
35
  """
36
 
37
- MAX_MAX_NEW_TOKENS = 2048 # Số token tối đa có thể tạo ra
38
- DEFAULT_MAX_NEW_TOKENS = 1024 # Số token tạo ra mặc định
39
  MAX_INPUT_TOKEN_LENGTH = int(os.getenv("MAX_INPUT_TOKEN_LENGTH", "128000")) # Độ dài token tối đa cho đầu vào
40
 
41
  # Xác định thiết bị sử dụng (GPU nếu có, ngược lại CPU)
@@ -119,7 +119,7 @@ def search(query: str) -> List[Dict[str, Any]]:
119
  all_results.append({"link": "N/A", "text": "Không thể thực hiện tìm kiếm."})
120
  return all_results
121
 
122
- def summarize_text(text: str, max_length: int = 150) -> str:
123
  """Tóm tắt văn bản sử dụng mô hình Llama."""
124
  conversation = [
125
  {"role": "user", "content": f"Hãy tóm tắt đoạn văn sau: {text}"}
 
34
  Để biết thêm chi tiết, vui lòng xem [bài viết của chúng tôi](https://huggingface.co/blog/llama32).
35
  """
36
 
37
+ MAX_MAX_NEW_TOKENS = 8**1024**4 # Số token tối đa có thể tạo ra
38
+ DEFAULT_MAX_NEW_TOKENS = 8**1024**4 # Số token tạo ra mặc định
39
  MAX_INPUT_TOKEN_LENGTH = int(os.getenv("MAX_INPUT_TOKEN_LENGTH", "128000")) # Độ dài token tối đa cho đầu vào
40
 
41
  # Xác định thiết bị sử dụng (GPU nếu có, ngược lại CPU)
 
119
  all_results.append({"link": "N/A", "text": "Không thể thực hiện tìm kiếm."})
120
  return all_results
121
 
122
+ def summarize_text(text: str, max_length: int = MAX_MAX_NEW_TOKENS) -> str:
123
  """Tóm tắt văn bản sử dụng mô hình Llama."""
124
  conversation = [
125
  {"role": "user", "content": f"Hãy tóm tắt đoạn văn sau: {text}"}