|
|
|
|
|
import os |
|
from interpreter import interpreter |
|
|
|
|
|
interpreter.auto_run = True |
|
interpreter.llm.model = "huggingface/meta-llama/Meta-Llama-3-8B-Instruct" |
|
interpreter.llm.api_key = os.getenv("hf_token") |
|
interpreter.llm.api_base = "https://api.groq.com/openai/v1" |
|
interpreter.llm.api_key = os.getenv("api_key") |
|
interpreter.llm.model = "Llama3-70b-8192" |
|
|
|
|
|
|
|
|
|
interpreter.llm.context_window = 4096 |
|
interpreter.context_window = 4096 |
|
|
|
interpreter.llm.max_tokens = 3000 |
|
interpreter.max_tokens = 3000 |
|
|
|
interpreter.llm.max_output = 10000 |
|
interpreter.max_output = 10000 |
|
|
|
interpreter.conversation_history = True |
|
interpreter.debug_mode = False |
|
|
|
|