llama cpp python docker gpu