Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
|
@@ -175,13 +175,14 @@ def respond_o1mini_qna(
|
|
| 175 |
question: str,
|
| 176 |
system_message: str,
|
| 177 |
max_tokens: int,
|
| 178 |
-
temperature: float
|
| 179 |
):
|
| 180 |
"""
|
| 181 |
o1-mini 모델을 이용해 한 번의 질문(question)에 대한 답변을 반환하는 함수.
|
| 182 |
o1-mini에서는 'system' 역할 메시지를 지원하지 않으므로,
|
| 183 |
system_message와 question을 하나의 'user' 메시지로 합쳐 전달합니다.
|
| 184 |
-
또한,
|
|
|
|
| 185 |
"""
|
| 186 |
openai_token = os.getenv("OPENAI_TOKEN")
|
| 187 |
if not openai_token:
|
|
@@ -189,7 +190,6 @@ def respond_o1mini_qna(
|
|
| 189 |
|
| 190 |
openai.api_key = openai_token
|
| 191 |
|
| 192 |
-
# system_message와 question을 하나의 메시지로 합침
|
| 193 |
combined_message = f"{system_message}\n\n{question}"
|
| 194 |
messages = [
|
| 195 |
{"role": "user", "content": combined_message}
|
|
@@ -208,7 +208,7 @@ def respond_o1mini_qna(
|
|
| 208 |
return f"오류가 발생했습니다: {str(e)}"
|
| 209 |
|
| 210 |
#############################
|
| 211 |
-
# [기본코드] UI 부분 - 수정/삭제 불가
|
| 212 |
#############################
|
| 213 |
|
| 214 |
with gr.Blocks() as demo:
|
|
@@ -456,50 +456,111 @@ with gr.Blocks() as demo:
|
|
| 456 |
)
|
| 457 |
|
| 458 |
#################
|
| 459 |
-
# o1-mini
|
| 460 |
#################
|
| 461 |
-
with gr.Tab("
|
| 462 |
-
|
| 463 |
-
|
| 464 |
-
|
| 465 |
-
|
| 466 |
-
|
| 467 |
-
|
| 468 |
-
|
| 469 |
-
|
| 470 |
-
with gr.
|
| 471 |
-
|
| 472 |
-
|
| 473 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 474 |
내가 요구하는 것을 최대한 자세하고 정확하게 답변하라.
|
| 475 |
""",
|
| 476 |
-
|
| 477 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 478 |
)
|
| 479 |
-
|
| 480 |
-
|
| 481 |
-
|
| 482 |
-
|
| 483 |
-
|
| 484 |
-
|
| 485 |
-
|
| 486 |
-
|
| 487 |
-
|
| 488 |
-
|
| 489 |
-
|
| 490 |
-
|
| 491 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 492 |
)
|
| 493 |
-
|
| 494 |
-
|
| 495 |
-
|
| 496 |
-
|
| 497 |
-
|
| 498 |
-
|
| 499 |
-
|
| 500 |
-
|
| 501 |
-
|
| 502 |
-
|
|
|
|
|
|
|
| 503 |
)
|
| 504 |
|
| 505 |
#############################
|
|
|
|
| 175 |
question: str,
|
| 176 |
system_message: str,
|
| 177 |
max_tokens: int,
|
| 178 |
+
temperature: float
|
| 179 |
):
|
| 180 |
"""
|
| 181 |
o1-mini 모델을 이용해 한 번의 질문(question)에 대한 답변을 반환하는 함수.
|
| 182 |
o1-mini에서는 'system' 역할 메시지를 지원하지 않으므로,
|
| 183 |
system_message와 question을 하나의 'user' 메시지로 합쳐 전달합니다.
|
| 184 |
+
또한, o1-mini에서는 'max_tokens' 대신 'max_completion_tokens' 파라미터를 사용하며,
|
| 185 |
+
온도(temperature)는 고정값 1만 지원합니다.
|
| 186 |
"""
|
| 187 |
openai_token = os.getenv("OPENAI_TOKEN")
|
| 188 |
if not openai_token:
|
|
|
|
| 190 |
|
| 191 |
openai.api_key = openai_token
|
| 192 |
|
|
|
|
| 193 |
combined_message = f"{system_message}\n\n{question}"
|
| 194 |
messages = [
|
| 195 |
{"role": "user", "content": combined_message}
|
|
|
|
| 208 |
return f"오류가 발생했습니다: {str(e)}"
|
| 209 |
|
| 210 |
#############################
|
| 211 |
+
# [기본코드] UI 부분 - 수정/삭제 불가 (단, OpenAI 탭 추가)
|
| 212 |
#############################
|
| 213 |
|
| 214 |
with gr.Blocks() as demo:
|
|
|
|
| 456 |
)
|
| 457 |
|
| 458 |
#################
|
| 459 |
+
# OpenAI 탭 (gpt-4o-mini / o1-mini 통합)
|
| 460 |
#################
|
| 461 |
+
with gr.Tab("OpenAI"):
|
| 462 |
+
# 모델 선택 라디오 버튼 (gpt-4o-mini와 o1-mini)
|
| 463 |
+
openai_model_radio = gr.Radio(
|
| 464 |
+
choices=["gpt-4o-mini", "o1-mini"],
|
| 465 |
+
label="모델 선택",
|
| 466 |
+
value="gpt-4o-mini"
|
| 467 |
+
)
|
| 468 |
+
|
| 469 |
+
# gpt-4o-mini 전용 UI 그룹 (초기 visible)
|
| 470 |
+
with gr.Column(visible=True) as chatgpt_ui:
|
| 471 |
+
chatgpt_input1_o = gr.Textbox(label="입력1", lines=1)
|
| 472 |
+
chatgpt_input2_o = gr.Textbox(label="입력2", lines=1)
|
| 473 |
+
chatgpt_input3_o = gr.Textbox(label="입력3", lines=1)
|
| 474 |
+
chatgpt_input4_o = gr.Textbox(label="입력4", lines=1)
|
| 475 |
+
chatgpt_input5_o = gr.Textbox(label="입력5", lines=1)
|
| 476 |
+
chatgpt_answer_output_o = gr.Textbox(label="결과", lines=5, interactive=False)
|
| 477 |
+
with gr.Accordion("고급 설정 (gpt-4o-mini)", open=False):
|
| 478 |
+
chatgpt_system_message_o = gr.Textbox(
|
| 479 |
+
value="""반드시 한글로 답변할 것.
|
| 480 |
+
너는 ChatGPT, OpenAI에서 개발한 언어 모델이다.
|
| 481 |
내가 요구하는 것을 최대한 자세하고 정확하게 답변하라.
|
| 482 |
""",
|
| 483 |
+
label="System Message",
|
| 484 |
+
lines=3
|
| 485 |
+
)
|
| 486 |
+
chatgpt_max_tokens_o = gr.Slider(minimum=100, maximum=4000, value=2000, step=100, label="Max Tokens")
|
| 487 |
+
chatgpt_temperature_o = gr.Slider(minimum=0.1, maximum=2.0, value=0.7, step=0.05, label="Temperature")
|
| 488 |
+
chatgpt_top_p_o = gr.Slider(minimum=0.1, maximum=1.0, value=0.95, step=0.05, label="Top-P")
|
| 489 |
+
chatgpt_submit_button_o = gr.Button("전송")
|
| 490 |
+
|
| 491 |
+
def merge_and_call_chatgpt_o(i1, i2, i3, i4, i5, sys_msg, mt, temp, top_p_):
|
| 492 |
+
question = " ".join([i1, i2, i3, i4, i5])
|
| 493 |
+
return respond_chatgpt_qna(
|
| 494 |
+
question=question,
|
| 495 |
+
system_message=sys_msg,
|
| 496 |
+
max_tokens=mt,
|
| 497 |
+
temperature=temp,
|
| 498 |
+
top_p=top_p_
|
| 499 |
+
)
|
| 500 |
+
chatgpt_submit_button_o.click(
|
| 501 |
+
fn=merge_and_call_chatgpt_o,
|
| 502 |
+
inputs=[
|
| 503 |
+
chatgpt_input1_o, chatgpt_input2_o, chatgpt_input3_o, chatgpt_input4_o, chatgpt_input5_o,
|
| 504 |
+
chatgpt_system_message_o,
|
| 505 |
+
chatgpt_max_tokens_o,
|
| 506 |
+
chatgpt_temperature_o,
|
| 507 |
+
chatgpt_top_p_o
|
| 508 |
+
],
|
| 509 |
+
outputs=chatgpt_answer_output_o
|
| 510 |
)
|
| 511 |
+
|
| 512 |
+
# o1-mini 전용 UI 그룹 (초기 hidden)
|
| 513 |
+
with gr.Column(visible=False) as o1mini_ui:
|
| 514 |
+
o1mini_input1_o = gr.Textbox(label="입력1", lines=1)
|
| 515 |
+
o1mini_input2_o = gr.Textbox(label="입력2", lines=1)
|
| 516 |
+
o1mini_input3_o = gr.Textbox(label="입력3", lines=1)
|
| 517 |
+
o1mini_input4_o = gr.Textbox(label="입력4", lines=1)
|
| 518 |
+
o1mini_input5_o = gr.Textbox(label="입력5", lines=1)
|
| 519 |
+
o1mini_answer_output_o = gr.Textbox(label="결과", lines=5, interactive=False)
|
| 520 |
+
with gr.Accordion("고급 설정 (o1-mini)", open=False):
|
| 521 |
+
o1mini_system_message_o = gr.Textbox(
|
| 522 |
+
value="""반드시 한글로 답변할 것.
|
| 523 |
+
너는 o1-mini, OpenAI에서 개발한 경량 언어 모델이다.
|
| 524 |
+
내가 요구하는 것을 최대한 자세하고 정확하게 답변하라.
|
| 525 |
+
""",
|
| 526 |
+
label="System Message",
|
| 527 |
+
lines=3
|
| 528 |
+
)
|
| 529 |
+
o1mini_max_tokens_o = gr.Slider(minimum=100, maximum=4000, value=2000, step=100, label="Max Tokens")
|
| 530 |
+
o1mini_temperature_o = gr.Slider(minimum=0.1, maximum=2.0, value=0.7, step=0.05, label="Temperature")
|
| 531 |
+
# o1-mini는 top_p 지원이 없으므로 해당 옵션은 UI에서 제외함
|
| 532 |
+
o1mini_submit_button_o = gr.Button("전송")
|
| 533 |
+
|
| 534 |
+
def merge_and_call_o1mini_o(i1, i2, i3, i4, i5, sys_msg, mt, temp):
|
| 535 |
+
question = " ".join([i1, i2, i3, i4, i5])
|
| 536 |
+
return respond_o1mini_qna(
|
| 537 |
+
question=question,
|
| 538 |
+
system_message=sys_msg,
|
| 539 |
+
max_tokens=mt,
|
| 540 |
+
temperature=temp
|
| 541 |
+
)
|
| 542 |
+
o1mini_submit_button_o.click(
|
| 543 |
+
fn=merge_and_call_o1mini_o,
|
| 544 |
+
inputs=[
|
| 545 |
+
o1mini_input1_o, o1mini_input2_o, o1mini_input3_o, o1mini_input4_o, o1mini_input5_o,
|
| 546 |
+
o1mini_system_message_o,
|
| 547 |
+
o1mini_max_tokens_o,
|
| 548 |
+
o1mini_temperature_o
|
| 549 |
+
],
|
| 550 |
+
outputs=o1mini_answer_output_o
|
| 551 |
)
|
| 552 |
+
|
| 553 |
+
# UI 업데이트: 라디오 버튼 선택에 따라 gpt-4o-mini / o1-mini UI 전환
|
| 554 |
+
def update_openai_ui(model_choice):
|
| 555 |
+
if model_choice == "gpt-4o-mini":
|
| 556 |
+
return gr.update(visible=True), gr.update(visible=False)
|
| 557 |
+
else:
|
| 558 |
+
return gr.update(visible=False), gr.update(visible=True)
|
| 559 |
+
|
| 560 |
+
openai_model_radio.change(
|
| 561 |
+
fn=update_openai_ui,
|
| 562 |
+
inputs=openai_model_radio,
|
| 563 |
+
outputs=[chatgpt_ui, o1mini_ui]
|
| 564 |
)
|
| 565 |
|
| 566 |
#############################
|