from components.llm.common import ChatRequest, Message from typing import List, Dict def convert_to_openai_format(request: ChatRequest, system_prompt: str) -> List[Dict[str, str]]: """ Преобразует ChatRequest и system_prompt в формат OpenAI API, включая searchResults. Args: request (ChatRequest): Запрос с историей чата. system_prompt (str): Системный промпт. Returns: List[Dict[str, str]]: История в формате OpenAI [{'role': str, 'content': str}, ...]. """ # Добавляем системный промпт как первое сообщение openai_history = [{"role": "system", "content": system_prompt}] # Преобразуем историю из ChatRequest for message in request.history: content = message.content if message.searchResults: search_results = "\n" + message.searchResults content += f"\n\n{search_results}\n" openai_history.append({ "role": message.role, "content": content }) return openai_history def append_llm_response_to_history(history: ChatRequest, llm_response: str) -> ChatRequest: """ Добавляет ответ LLM в историю чата. Args: history (ChatRequest): Текущая история чата. llm_response (str): Текст ответа от LLM. Returns: ChatRequest: Обновленная история с добавленным ответом. """ # Создаем новое сообщение от assistant assistant_message = Message( role="assistant", content=llm_response, searchResults="" # Пустой список, если searchResults не предоставлены ) # Добавляем сообщение в историю updated_history = history.history + [assistant_message] # Возвращаем новый объект ChatRequest с обновленной историей return ChatRequest(history=updated_history)