llama cpp rpc server docker