from components.llm.common import ChatRequest, Message from typing import List, Dict def convert_to_openai_format(request: ChatRequest, system_prompt: str) -> List[Dict[str, str]]: """ Преобразует ChatRequest и system_prompt в формат OpenAI API, включая searchResults. Args: request (ChatRequest): Запрос с историей чата. system_prompt (str): Системный промпт. Returns: List[Dict[str, str]]: История в формате OpenAI [{'role': str, 'content': str}, ...]. """ # # Добавляем системный промпт как первое сообщение # openai_history = [{"role": "system", "content": system_prompt}] # # Преобразуем историю из ChatRequest # for message in request.history: # content = message.content # if message.searchResults: # search_results = "\n" + message.searchResults # content += f"\n\n{search_results}\n" # openai_history.append({ # "role": message.role, # "content": content # }) user_prompt = system_prompt + "\n\n" for message in request.history: content = message.content user_prompt += content openai_history = [{"role": "user", "content": user_prompt}] return openai_history def append_llm_response_to_history(history: ChatRequest, llm_response: str) -> ChatRequest: """ Добавляет ответ LLM в историю чата. Args: history (ChatRequest): Текущая история чата. llm_response (str): Текст ответа от LLM. Returns: ChatRequest: Обновленная история с добавленным ответом. """ # Создаем новое сообщение от assistant assistant_message = Message( role="assistant", content=llm_response, searchResults="" # Пустой список, если searchResults не предоставлены ) # Добавляем сообщение в историю updated_history = history.history + [assistant_message] # Возвращаем новый объект ChatRequest с обновленной историей return ChatRequest(history=updated_history)