llama cpp server docker cuda