llama cpp http server docker