llama.cpp server not using gpu