FROM vllm/vllm-openai:latest COPY --chown=ray:ray ./model_cache /root/.cache/huggingface ENV HF_HOME=/root/.cache/huggingface CMD ["--model", "deepseek-ai/deepseek-llm-7b-chat", "--port", "8000"] :
print(response.choices[0].message.content) DeepSeek soporta funciones como GPT-4: FROM vllm/vllm-openai:latest COPY --chown=ray:ray
# Crear entorno virtual python -m venv deepseek-env source deepseek-env/bin/activate # Linux/Mac # deepseek-env\Scripts\activate # Windows pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 # CUDA 11.8 pip install transformers accelerate bitsandbytes sentencepiece protobuf pip install vllm # Para inferencia en producción local 1.3 Carga del Modelo (Versión Cuantizada para Hardware Limitado) from transformers import AutoModelForCausalLM, AutoTokenizer import torch model_name = "deepseek-ai/deepseek-llm-7b-chat" # Modelo conversacional Carga con cuantización de 4 bits (requiere bitsandbytes) tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained( model_name, device_map="auto", torch_dtype=torch.float16, load_in_4bit=True, # Reduce VRAM a ~6GB trust_remote_code=True ) Prueba de generación prompt = "Explica la diferencia entre un transformer encoder y decoder en inteligencia artificial." inputs = tokenizer(prompt, return_tensors="pt").to("cuda") outputs = model.generate(**inputs, max_new_tokens=200) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) FROM vllm/vllm-openai:latest COPY --chown=ray:ray