Kims12 commited on
Commit
ad95ad7
·
verified ·
1 Parent(s): c811bdc

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +9 -11
app.py CHANGED
@@ -188,16 +188,16 @@ def respond_gemini_qna(
188
  system_message: str,
189
  max_tokens: int,
190
  temperature: float,
191
- top_p: float, # 필요시 top_p 전달합니다.
192
  model_id: str
193
  ):
194
  """
195
  Gemini 모델(예: gemini-2.0-flash, gemini-2.0-flash-lite-preview-02-05)을 이용해
196
- 한 번의 질문(question)에 대한 답변을 반환하는 함수.
197
- Google의 generativeai(palm) 라이브러리를 사용합니다.
198
  """
199
  try:
200
- import google.generativeai as palm
201
  except ModuleNotFoundError:
202
  return ("오류가 발생했습니다: 'google-generativeai' 모듈을 찾을 수 없습니다. "
203
  "해결 방법: 'pip install google-generativeai' 를 실행하여 설치해주세요.")
@@ -206,21 +206,19 @@ def respond_gemini_qna(
206
  if not gemini_api_key:
207
  return "Gemini API 토큰이 필요합니다."
208
 
209
- palm.configure(api_key=gemini_api_key)
210
  prompt = f"{system_message}\n\n{question}"
211
  try:
212
- response = palm.generate_text(
213
  model=model_id,
214
- prompt=prompt,
215
- max_output_tokens=max_tokens,
216
- temperature=temperature,
217
- top_p=top_p
218
  )
219
- return response.result
220
  except Exception as e:
221
  return f"오류가 발생했습니다: {str(e)}"
222
 
223
 
 
224
  #############################
225
  # [기본코드] UI 부분 - 수정/삭제 불가 (탭 순서: OpenAI, Gemini, Claude, DeepSeek, Cohere Command R+)
226
  #############################
 
188
  system_message: str,
189
  max_tokens: int,
190
  temperature: float,
191
+ top_p: float, # top_p 이 코드에서 사용되지 않습니다.
192
  model_id: str
193
  ):
194
  """
195
  Gemini 모델(예: gemini-2.0-flash, gemini-2.0-flash-lite-preview-02-05)을 이용해
196
+ 질문(question)에 대한 답변을 반환하는 함수.
197
+ Google의 genai 라이브러리를 사용합니다.
198
  """
199
  try:
200
+ from google import genai
201
  except ModuleNotFoundError:
202
  return ("오류가 발생했습니다: 'google-generativeai' 모듈을 찾을 수 없습니다. "
203
  "해결 방법: 'pip install google-generativeai' 를 실행하여 설치해주세요.")
 
206
  if not gemini_api_key:
207
  return "Gemini API 토큰이 필요합니다."
208
 
209
+ client = genai.Client(api_key=gemini_api_key)
210
  prompt = f"{system_message}\n\n{question}"
211
  try:
212
+ response = client.models.generate_content(
213
  model=model_id,
214
+ contents=[prompt]
 
 
 
215
  )
216
+ return response.text
217
  except Exception as e:
218
  return f"오류가 발생했습니다: {str(e)}"
219
 
220
 
221
+
222
  #############################
223
  # [기본코드] UI 부분 - 수정/삭제 불가 (탭 순서: OpenAI, Gemini, Claude, DeepSeek, Cohere Command R+)
224
  #############################