Kims12 commited on
Commit
6409d9c
·
verified ·
1 Parent(s): 1077332

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +13 -10
app.py CHANGED
@@ -188,33 +188,36 @@ def respond_gemini_qna(
188
  system_message: str,
189
  max_tokens: int,
190
  temperature: float,
191
- top_p: float, # 이 값은 사용되지 않습니다.
192
  model_id: str
193
  ):
194
  """
195
  Gemini 모델(예: gemini-2.0-flash, gemini-2.0-flash-lite-preview-02-05)을 이용해
196
  질문(question)에 대한 답변을 반환하는 함수.
197
- Google의 generativeai 라이브러리를 사용합니다.
 
198
  """
199
  try:
200
- import google.generativeai as genai
 
201
  except ModuleNotFoundError:
202
  return ("오류가 발생했습니다: 'google-generativeai' 모듈을 찾을 수 없습니다. "
203
- "해결 방법: 'pip install google-generativeai' 를 실행하여 설치해주세요.")
204
 
205
  gemini_api_key = os.getenv("GEMINI_API_KEY")
206
  if not gemini_api_key:
207
  return "Gemini API 토큰이 필요합니다."
208
 
209
- # API 키 설정
210
- genai.configure(api_key=gemini_api_key)
211
-
212
  prompt = f"{system_message}\n\n{question}"
213
-
214
  try:
215
- response = genai.models.generate_content(
216
  model=model_id,
217
- contents=[prompt]
 
 
 
 
218
  )
219
  return response.text
220
  except Exception as e:
 
188
  system_message: str,
189
  max_tokens: int,
190
  temperature: float,
191
+ top_p: float, # 이 값은 아래 설정에 포함됩니다.
192
  model_id: str
193
  ):
194
  """
195
  Gemini 모델(예: gemini-2.0-flash, gemini-2.0-flash-lite-preview-02-05)을 이용해
196
  질문(question)에 대한 답변을 반환하는 함수.
197
+
198
+ Google의 genai 라이브러리(google-generativeai)를 사용합니다.
199
  """
200
  try:
201
+ from google import genai
202
+ from google.genai import types
203
  except ModuleNotFoundError:
204
  return ("오류가 발생했습니다: 'google-generativeai' 모듈을 찾을 수 없습니다. "
205
+ "해결 방법: 'pip install google-generativeai'를 실행하여 설치해주세요.")
206
 
207
  gemini_api_key = os.getenv("GEMINI_API_KEY")
208
  if not gemini_api_key:
209
  return "Gemini API 토큰이 필요합니다."
210
 
211
+ client = genai.Client(api_key=gemini_api_key)
 
 
212
  prompt = f"{system_message}\n\n{question}"
 
213
  try:
214
+ response = client.models.generate_content(
215
  model=model_id,
216
+ contents=[prompt],
217
+ config=types.GenerateContentConfig(
218
+ max_output_tokens=max_tokens,
219
+ temperature=temperature
220
+ )
221
  )
222
  return response.text
223
  except Exception as e: