llama cpp docker cuda version