Test Ollama via API
Première expérience avec Ollama et le modèle gemma3.1b
ollama run gemma3:1bcurl http://localhost:11434/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "gemma3:1b",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "Hello!"
}
]
}'ollama stop gemma3:1bMis à jour