FROM quay.io/go-skynet/local-ai:latest ENV MODELS_PATH=/models \ DEBUG=false \ THREADS=2 \ CONTEXT_SIZE=1024 # Crée le dossier des modèles RUN mkdir -p /models # Télécharge un **petit modèle chat** (TinyLlama 1.1B, quantisé Q4) au **build** # -> Il sera **embarqué** dans l'image finale. Aucune connexion réseau n'est # nécessaire **à l'exécution**. RUN curl -L --fail --progress-bar \ -o /models/tinyllama-1.1b-chat.Q4_K_M.gguf \ https://huggingface.co/TheBloke/TinyLlama-1.1B-Chat-v1.0-GGUF/resolve/main/tinyllama-1.1b-chat-v1.0.Q4_K_M.gguf # Mappe le nom du modèle **gpt-oss-20b** (compat) vers le fichier téléchargé # => côté Symfony on référence simplement "gpt-oss-20b" RUN printf "name: gpt-oss-20b backend: llama parameters: model: tinyllama-1.1b-chat.Q4_K_M.gguf n_ctx: %s n_threads: %s temperature: 0.2 top_p: 0.9 " "$CONTEXT_SIZE" "$THREADS" > /models/gpt-oss-20b.yaml # L'entrée du serveur (déjà gérée par docker-compose via `command`)