llama cpp full cuda docker