ollama / start.sh
Yaya86's picture
Update start.sh
718fab4 verified
raw
history blame
289 Bytes
#!/bin/bash
pip install -U "huggingface_hub[cli]"
# Démarrez le service Ollama en arrière-plan
ollama serve &
# Attendez que le service soit prêt
sleep 10
# Exécutez la commande pull
ollama pull llama3:8b-instruct-q8_0
# Gardez le conteneur en cours d'exécution
tail -f /dev/null