llama cpp docker compose rocm