llama cpp server not using gpu