llama cpp server rocm docker