llama cpp python server docker