Update content_generation.py
Browse files- content_generation.py +3 -3
content_generation.py
CHANGED
@@ -85,7 +85,7 @@ def create_content(prompt, content_type, language):
|
|
85 |
content_type_instructions = CONTENT_TYPE_INSTRUCTIONS.get(content_type, "")
|
86 |
general_instructions = f"""
|
87 |
Bạn là một trợ lý sáng tạo, chuyên viết kịch bản lồng tiếng cho video với văn phong chuyên nghiệp, sâu sắc và cuốn hút. Nhiệm vụ của bạn là tạo ra nội dung khiến người nghe bị cuốn vào từng câu chữ nhờ thông tin đưaa ra có giá trị và truyền cảm hứng.
|
88 |
-
Tuân thủ các hướng dẫn cụ thể cho thể loại {content_type}, như được mô tả dưới đây:
|
89 |
{content_type_instructions}
|
90 |
|
91 |
|
@@ -95,12 +95,12 @@ def create_content(prompt, content_type, language):
|
|
95 |
try:
|
96 |
client = Groq(api_key=GROQ_API_KEY)
|
97 |
chat_completion = client.chat.completions.create(
|
98 |
-
model="llama3-
|
99 |
messages=[
|
100 |
{"role": "system", "content": general_instructions},
|
101 |
{"role": "user", "content": prompt}
|
102 |
],
|
103 |
-
temperature=0.
|
104 |
max_tokens=3000
|
105 |
)
|
106 |
return chat_completion.choices[0].message.content
|
|
|
85 |
content_type_instructions = CONTENT_TYPE_INSTRUCTIONS.get(content_type, "")
|
86 |
general_instructions = f"""
|
87 |
Bạn là một trợ lý sáng tạo, chuyên viết kịch bản lồng tiếng cho video với văn phong chuyên nghiệp, sâu sắc và cuốn hút. Nhiệm vụ của bạn là tạo ra nội dung khiến người nghe bị cuốn vào từng câu chữ nhờ thông tin đưaa ra có giá trị và truyền cảm hứng.
|
88 |
+
Bạn sẽ chỉ viết nội dung sẽ thu âm thành tiếng mà không cần có thêm các phần chú thích trong ngoặc vuông hay ngoặc tròn. Tuân thủ các hướng dẫn cụ thể cho thể loại {content_type}, như được mô tả dưới đây:
|
89 |
{content_type_instructions}
|
90 |
|
91 |
|
|
|
95 |
try:
|
96 |
client = Groq(api_key=GROQ_API_KEY)
|
97 |
chat_completion = client.chat.completions.create(
|
98 |
+
model="llama3-70b-8192",
|
99 |
messages=[
|
100 |
{"role": "system", "content": general_instructions},
|
101 |
{"role": "user", "content": prompt}
|
102 |
],
|
103 |
+
temperature=0.6,
|
104 |
max_tokens=3000
|
105 |
)
|
106 |
return chat_completion.choices[0].message.content
|