YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/model-cards#model-card-metadata)

Model: Llama-3.1-70B-Instruct

Model ini adalah model instruksi yang telah difinetuned dan dievaluasi untuk menghasilkan catatan, flashcards, dan kuis berdasarkan konten yang diberikan. Model ini menggunakan Hugging Face API dengan Fine-grained token untuk mengakses model.

Cara Menggunakan Model

Alt text

1. Python

Berikut adalah contoh kode Python untuk menggunakan model ini:

from openai import OpenAI
from IPython.display import display, Markdown

client = OpenAI(
    api_key="hf_xxxxxxxxxxxxxxx", # isi dengan token "FINE GRAINED" huggingface anda!
    base_url="https://huggingface.co/api/integrations/dgx/v1",
)

# System prompts - pastikan ini sudah didefinisikan
notes_prompt = "..." # wajib isi dengan prompt notes yang sudah ditentukan (notes_prompt.txt)
flashcards_prompt = "..." # wajib isi dengan prompt flashcards yang sudah ditentukan (flashcards_prompt.txt)
quiz_prompt = "..." # wajib isi dengan prompt quiz yang sudah ditentukan (quiz_prompt.txt)

content = "..." # isi dengan dokumen yang sudah di ekstrak dari si parser (PDF, TXT, DOCX)


# 1. Generate notes
notes_response = client.chat.completions.create(
    model="meta-llama/Llama-3.1-70B-Instruct",
    messages=[
        {"role": "system", "content": notes_prompt},
        {"role": "user", "content": content},
    ],
    temperature=0.3,
    max_tokens=10_000
)

# Notes response
notes_md = notes_response.choices[0].message.content

# 2. Generate flashcards
flashcards_response = client.chat.completions.create(
    model="meta-llama/Llama-3.1-70B-Instruct",
    messages=[
        {"role": "system", "content": flashcards_prompt},
        {"role": "user", "content": notes_md},
    ],
    temperature=0.3,
    max_tokens=1024
)

# flashcards response
flashcards_md = flashcards_response.choices[0].message.content

# 3. Generate quiz
quiz_response = client.chat.completions.create(
    model="meta-llama/Llama-3.1-70B-Instruct",
    messages=[
        {"role": "system", "content": quiz_prompt},
        {"role": "user", "content": notes_md},
    ],
    temperature=0.3,
    max_tokens=5048
)

# Quiz response
quiz_md = quiz_response.choices[0].message.content

print(notes_md)
print(flashcards_md)
print(quiz_md)

2. Javascript

import { HfInference } from "@huggingface/inference";

const client = new HfInference("hf_xxxxxxxxxxxxxxx"); // isi dengan token "FINE GRAINED" huggingface anda!

// System prompts - pastikan ini sudah didefinisikan
const notes_prompt = "..." // wajib isi dengan prompt notes yang sudah ditentukan (notes_prompt.txt)
const flashcards_prompt = "..." // wajib isi dengan prompt flashcards yang sudah ditentukan (flashcards_prompt.txt)
const quiz_prompt = "..." // wajib isi dengan prompt quiz yang sudah ditentukan (quiz_prompt.txt)


const content = "..." // isi dengan dokumen yang sudah di ekstrak dari si parser (PDF, TXT, DOCX)

async function generateEducationalContent() {
  try {
    // 1. Generate Notes
    const notesResponse = await client.chatCompletion({
      model: "meta-llama/Llama-3.1-70B-Instruct",
      messages: [
        { role: "system", content: notes_prompt },
        { role: "user", content: content }
      ],
      temperature: 0.3,
      max_tokens: 10_000
    });
    
    const notesMd = notesResponse.choices[0].message.content;
    console.log("=== CATATAN ===");
    console.log(notesMd);

    // 2. Generate Flashcards
    const flashcardsResponse = await client.chatCompletion({
      model: "meta-llama/Llama-3.1-70B-Instruct",
      messages: [
        { role: "system", content: flashcards_prompt },
        { role: "user", content: notesMd }
      ],
      temperature: 0.3,
      max_tokens: 1024
    });
    
    const flashcardsMd = flashcardsResponse.choices[0].message.content;
    console.log("\n=== FLASHCARDS ===");
    console.log(flashcardsMd);

    // 3. Generate Quiz
    const quizResponse = await client.chatCompletion({
      model: "meta-llama/Llama-3.1-70B-Instruct",
      messages: [
        { role: "system", content: quiz_prompt },
        { role: "user", content: notesMd }
      ],
      temperature: 0.3,
      max_tokens: 5048
    });
    
    const quizMd = quizResponse.choices[0].message.content;
    console.log("\n=== KUIS ===");
    console.log(quizMd);

  } catch (error) {
    console.error("Error:", error);
  }
}

// Eksekusi fungsi utama
generateEducationalContent();

Pastikan anda menginstall dependency yang diperlukan:

npm install @huggingface/inference
Downloads last month
2
Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and HF Inference API was unable to determine this model's library.