llama cpp python check gpu