llama.cpp docker-compose cpu