llama cpp python docker compose