Spaces:
Sleeping
Sleeping
from components.llm.common import ChatRequest, Message | |
from typing import List, Dict | |
def convert_to_openai_format(request: ChatRequest, system_prompt: str) -> List[Dict[str, str]]: | |
""" | |
Преобразует ChatRequest и system_prompt в формат OpenAI API, включая searchResults. | |
Args: | |
request (ChatRequest): Запрос с историей чата. | |
system_prompt (str): Системный промпт. | |
Returns: | |
List[Dict[str, str]]: История в формате OpenAI [{'role': str, 'content': str}, ...]. | |
""" | |
# Добавляем системный промпт как первое сообщение | |
openai_history = [{"role": "system", "content": system_prompt}] | |
# Преобразуем историю из ChatRequest | |
for message in request.history: | |
content = message.content | |
if message.searchResults: | |
search_results = "\n".join(message.searchResults) | |
content += f"\n<search-results>\n{search_results}\n</search-results>" | |
openai_history.append({ | |
"role": message.role, | |
"content": content | |
}) | |
return openai_history | |
def append_llm_response_to_history(history: ChatRequest, llm_response: str) -> ChatRequest: | |
""" | |
Добавляет ответ LLM в историю чата. | |
Args: | |
history (ChatRequest): Текущая история чата. | |
llm_response (str): Текст ответа от LLM. | |
Returns: | |
ChatRequest: Обновленная история с добавленным ответом. | |
""" | |
# Создаем новое сообщение от assistant | |
assistant_message = Message( | |
role="assistant", | |
content=llm_response, | |
searchResults=[] # Пустой список, если searchResults не предоставлены | |
) | |
# Добавляем сообщение в историю | |
updated_history = history.history + [assistant_message] | |
# Возвращаем новый объект ChatRequest с обновленной историей | |
return ChatRequest(history=updated_history) |