llama cpp cuda docker compose