Test Ollama via API

Première expérience avec Ollama et le modèle gemma3.1b

ollama run gemma3:1b
curl http://localhost:11434/v1/chat/completions \
    -H "Content-Type: application/json" \
    -d '{
        "model": "gemma3:1b",
        "messages": [
            {
                "role": "system",
                "content": "You are a helpful assistant."
            },
            {
                "role": "user",
                "content": "Hello!"
            }
        ]
    }'
ollama stop gemma3:1b

Mis à jour