llama cpp server cuda docker