llama cpp server cuda docker compose