llama cpp python gpu docker