Spaces:
Running
Running
Update app.py
Browse files
app.py
CHANGED
@@ -188,33 +188,36 @@ def respond_gemini_qna(
|
|
188 |
system_message: str,
|
189 |
max_tokens: int,
|
190 |
temperature: float,
|
191 |
-
top_p: float, # 이 값은
|
192 |
model_id: str
|
193 |
):
|
194 |
"""
|
195 |
Gemini 모델(예: gemini-2.0-flash, gemini-2.0-flash-lite-preview-02-05)을 이용해
|
196 |
질문(question)에 대한 답변을 반환하는 함수.
|
197 |
-
|
|
|
198 |
"""
|
199 |
try:
|
200 |
-
|
|
|
201 |
except ModuleNotFoundError:
|
202 |
return ("오류가 발생했습니다: 'google-generativeai' 모듈을 찾을 수 없습니다. "
|
203 |
-
"해결 방법: 'pip install google-generativeai'
|
204 |
|
205 |
gemini_api_key = os.getenv("GEMINI_API_KEY")
|
206 |
if not gemini_api_key:
|
207 |
return "Gemini API 토큰이 필요합니다."
|
208 |
|
209 |
-
|
210 |
-
genai.configure(api_key=gemini_api_key)
|
211 |
-
|
212 |
prompt = f"{system_message}\n\n{question}"
|
213 |
-
|
214 |
try:
|
215 |
-
response =
|
216 |
model=model_id,
|
217 |
-
contents=[prompt]
|
|
|
|
|
|
|
|
|
218 |
)
|
219 |
return response.text
|
220 |
except Exception as e:
|
|
|
188 |
system_message: str,
|
189 |
max_tokens: int,
|
190 |
temperature: float,
|
191 |
+
top_p: float, # 이 값은 아래 설정에 포함됩니다.
|
192 |
model_id: str
|
193 |
):
|
194 |
"""
|
195 |
Gemini 모델(예: gemini-2.0-flash, gemini-2.0-flash-lite-preview-02-05)을 이용해
|
196 |
질문(question)에 대한 답변을 반환하는 함수.
|
197 |
+
|
198 |
+
Google의 genai 라이브러리(google-generativeai)를 사용합니다.
|
199 |
"""
|
200 |
try:
|
201 |
+
from google import genai
|
202 |
+
from google.genai import types
|
203 |
except ModuleNotFoundError:
|
204 |
return ("오류가 발생했습니다: 'google-generativeai' 모듈을 찾을 수 없습니다. "
|
205 |
+
"해결 방법: 'pip install google-generativeai'를 실행하여 설치해주세요.")
|
206 |
|
207 |
gemini_api_key = os.getenv("GEMINI_API_KEY")
|
208 |
if not gemini_api_key:
|
209 |
return "Gemini API 토큰이 필요합니다."
|
210 |
|
211 |
+
client = genai.Client(api_key=gemini_api_key)
|
|
|
|
|
212 |
prompt = f"{system_message}\n\n{question}"
|
|
|
213 |
try:
|
214 |
+
response = client.models.generate_content(
|
215 |
model=model_id,
|
216 |
+
contents=[prompt],
|
217 |
+
config=types.GenerateContentConfig(
|
218 |
+
max_output_tokens=max_tokens,
|
219 |
+
temperature=temperature
|
220 |
+
)
|
221 |
)
|
222 |
return response.text
|
223 |
except Exception as e:
|