fantos commited on
Commit
a7c8ed0
·
verified ·
1 Parent(s): ddc57e1

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +34 -38
app.py CHANGED
@@ -35,7 +35,7 @@ def process_file(file) -> str:
35
 
36
  def generate_response(
37
  message: str,
38
- history: list[tuple[str, str]],
39
  system_message: str,
40
  max_tokens: int,
41
  temperature: float,
@@ -48,23 +48,15 @@ def generate_response(
48
  # 메시지 배열 초기화
49
  messages = []
50
 
51
- # 시스템 메시지가 있는 경우에만 추가
52
  if system_message.strip():
53
  messages.append({
54
  "role": "system",
55
  "content": system_message
56
  })
57
 
58
- # 대화 히스토리 추가
59
- for user_msg, assistant_msg in history:
60
- messages.append({
61
- "role": "user",
62
- "content": user_msg
63
- })
64
- messages.append({
65
- "role": "assistant",
66
- "content": assistant_msg
67
- })
68
 
69
  # 현재 메시지와 파일 내용 준비
70
  current_content = message
@@ -83,19 +75,16 @@ def generate_response(
83
  "content": current_content
84
  })
85
 
86
- # API 요청 설정
87
- request_params = {
88
- "model": "deepseek-ai/DeepSeek-R1",
89
- "messages": messages,
90
- "max_tokens": max_tokens,
91
- "temperature": temperature,
92
- "top_p": top_p,
93
- "stream": True
94
- }
95
-
96
- # API 호출
97
  try:
98
- stream = client.chat.completions.create(**request_params)
 
 
 
 
 
 
 
99
 
100
  for chunk in stream:
101
  if hasattr(chunk.choices[0].delta, 'content') and chunk.choices[0].delta.content:
@@ -105,21 +94,22 @@ def generate_response(
105
  if "rate limit" in str(e).lower():
106
  yield "API 호출 한도에 도달했습니다. 잠시 후 다시 시도해주세요."
107
  else:
108
- error_message = str(e)
109
- # Together.ai의 오류 응답 분석
110
- if "Input validation error" in error_message:
111
- yield "입력 형식이 올바르지 않습니다. 시스템 관리자에게 문의해주세요."
112
- else:
113
- yield f"API 호출 중 오류가 발생했습니다: {error_message}"
114
 
115
  except Exception as e:
116
- yield f"오류가 발생했습니다: {str(e)}"
 
117
 
118
  def main():
119
  st.set_page_config(page_title="DeepSeek 채팅", page_icon="💭", layout="wide")
120
 
 
121
  if "messages" not in st.session_state:
122
  st.session_state.messages = []
 
 
 
123
 
124
  st.title("DeepSeek 채팅")
125
  st.markdown("DeepSeek AI 모델과 대화하세요. 필요한 경우 파일을 업로드할 수 있습니다.")
@@ -131,34 +121,38 @@ def main():
131
  value="당신은 깊이 있게 생각하는 AI입니다. 문제를 깊이 고려하고 체계적인 추론 과정을 통해 올바른 해결책을 도출하세요. 반드시 한글로 답변하세요.",
132
  height=100
133
  )
134
- max_tokens = st.slider("최대 토큰 수", 1, 4096, 2048) # 토큰 제한 조정
135
- temperature = st.slider("온도", 0.0, 2.0, 0.7, 0.1) # 온도 범위 조정
136
- top_p = st.slider("Top-p", 0.0, 1.0, 0.7, 0.1) # top_p 범위 조정
137
  uploaded_file = st.file_uploader(
138
  "파일 업로드 (선택사항)",
139
  type=['txt', 'py', 'md', 'pdf', 'png', 'jpg', 'jpeg'],
140
  accept_multiple_files=True
141
  )
142
 
 
143
  for message in st.session_state.messages:
144
  with st.chat_message(message["role"]):
145
  st.markdown(message["content"])
146
 
 
147
  if prompt := st.chat_input("무엇을 알고 싶으신가요?"):
 
148
  st.session_state.messages.append({"role": "user", "content": prompt})
 
 
149
  with st.chat_message("user"):
150
  st.markdown(prompt)
151
 
 
152
  with st.chat_message("assistant"):
153
  response_placeholder = st.empty()
154
  full_response = ""
155
 
156
- history = [(msg["content"], next_msg["content"])
157
- for msg, next_msg in zip(st.session_state.messages[::2], st.session_state.messages[1::2])]
158
-
159
  for response_chunk in generate_response(
160
  prompt,
161
- history,
162
  system_message,
163
  max_tokens,
164
  temperature,
@@ -170,7 +164,9 @@ def main():
170
 
171
  response_placeholder.markdown(full_response)
172
 
 
173
  st.session_state.messages.append({"role": "assistant", "content": full_response})
 
174
 
175
  if __name__ == "__main__":
176
  main()
 
35
 
36
  def generate_response(
37
  message: str,
38
+ history: list[dict], # 히스토리 형식 변경
39
  system_message: str,
40
  max_tokens: int,
41
  temperature: float,
 
48
  # 메시지 배열 초기화
49
  messages = []
50
 
51
+ # 시스템 메시지 추가
52
  if system_message.strip():
53
  messages.append({
54
  "role": "system",
55
  "content": system_message
56
  })
57
 
58
+ # 대화 히스토리 추가 - 형식 수정
59
+ messages.extend(history)
 
 
 
 
 
 
 
 
60
 
61
  # 현재 메시지와 파일 내용 준비
62
  current_content = message
 
75
  "content": current_content
76
  })
77
 
78
+ # API 요청
 
 
 
 
 
 
 
 
 
 
79
  try:
80
+ stream = client.chat.completions.create(
81
+ model="deepseek-ai/DeepSeek-R1",
82
+ messages=messages,
83
+ max_tokens=max_tokens,
84
+ temperature=temperature,
85
+ top_p=top_p,
86
+ stream=True
87
+ )
88
 
89
  for chunk in stream:
90
  if hasattr(chunk.choices[0].delta, 'content') and chunk.choices[0].delta.content:
 
94
  if "rate limit" in str(e).lower():
95
  yield "API 호출 한도에 도달했습니다. 잠시 후 다시 시도해주세요."
96
  else:
97
+ st.error(f"API 오류 상세: {str(e)}") # 디버깅을 위한 오류 출력
98
+ yield "죄송합니다. 잠시 다시 시도해주세요."
 
 
 
 
99
 
100
  except Exception as e:
101
+ st.error(f"전체 오류 상세: {str(e)}") # 디버깅을 위한 오류 출력
102
+ yield "오류가 발생했습니다. 잠시 후 다시 시도해주세요."
103
 
104
  def main():
105
  st.set_page_config(page_title="DeepSeek 채팅", page_icon="💭", layout="wide")
106
 
107
+ # 세션 상태 초기화
108
  if "messages" not in st.session_state:
109
  st.session_state.messages = []
110
+
111
+ if "conversation_history" not in st.session_state: # 새로운 대화 히스토리 저장소
112
+ st.session_state.conversation_history = []
113
 
114
  st.title("DeepSeek 채팅")
115
  st.markdown("DeepSeek AI 모델과 대화하세요. 필요한 경우 파일을 업로드할 수 있습니다.")
 
121
  value="당신은 깊이 있게 생각하는 AI입니다. 문제를 깊이 고려하고 체계적인 추론 과정을 통해 올바른 해결책을 도출하세요. 반드시 한글로 답변하세요.",
122
  height=100
123
  )
124
+ max_tokens = st.slider("최대 토큰 수", 1, 4096, 2048)
125
+ temperature = st.slider("온도", 0.0, 2.0, 0.7, 0.1)
126
+ top_p = st.slider("Top-p", 0.0, 1.0, 0.7, 0.1)
127
  uploaded_file = st.file_uploader(
128
  "파일 업로드 (선택사항)",
129
  type=['txt', 'py', 'md', 'pdf', 'png', 'jpg', 'jpeg'],
130
  accept_multiple_files=True
131
  )
132
 
133
+ # 메시지 표시
134
  for message in st.session_state.messages:
135
  with st.chat_message(message["role"]):
136
  st.markdown(message["content"])
137
 
138
+ # 채팅 입력
139
  if prompt := st.chat_input("무엇을 알고 싶으신가요?"):
140
+ # 사용자 메시지 추가
141
  st.session_state.messages.append({"role": "user", "content": prompt})
142
+ st.session_state.conversation_history.append({"role": "user", "content": prompt})
143
+
144
  with st.chat_message("user"):
145
  st.markdown(prompt)
146
 
147
+ # 어시스턴트 응답 생성
148
  with st.chat_message("assistant"):
149
  response_placeholder = st.empty()
150
  full_response = ""
151
 
152
+ # generate_response 호출
 
 
153
  for response_chunk in generate_response(
154
  prompt,
155
+ st.session_state.conversation_history, # 수정된 히스토리 전달
156
  system_message,
157
  max_tokens,
158
  temperature,
 
164
 
165
  response_placeholder.markdown(full_response)
166
 
167
+ # 응답 저장
168
  st.session_state.messages.append({"role": "assistant", "content": full_response})
169
+ st.session_state.conversation_history.append({"role": "assistant", "content": full_response})
170
 
171
  if __name__ == "__main__":
172
  main()