Senior DevOps Engineer, Madrid
Sin Especificar
EY
Madrid, Madrid,
hace 13 días
... Azure and locally (Ollama vLLM llama.cpp). Your work will enable ... : local model runners (Ollama, vLLM, llama.cpp), GPU CPU configs. - Support ...
www.tecnoempleo.com