llama cpp docker compose cuda