
本快速入门指南将引导您使用 Ollama 运行您的第一个模型。
首先,请在 macOS、Windows 或 Linux 系统上下载 Ollama。
点击下载:https://ollama.com/download
下载完成后,就像安装普通软件以下安装 Ollama,自行完成。
安装完成后就可以继续后续操作:
打开终端并运行以下命令:
ollama run gemma3运行成功后,可直接在命令行与大模型进行聊天。
cURL 方式
// 拉取模型
ollama pull gemma3最后,与模型聊天:
curl http://localhost:11434/api/chat -d '{
"model": "gemma3",
"messages": [{
"role": "user",
"content": "Hello there!"
}],
"stream": false
}'
首先下载一个模型:
ollama pull gemma3然后安装 Ollama 的 Python 库:
pip install ollama最后,与模型聊天:
from ollama import chat
from ollama import ChatResponse
response: ChatResponse = chat(model='gemma3', messages=[
{
'role': 'user',
'content': 'Why is the sky blue?',
},
])
print(response['message']['content'])
# 或者直接从响应对象访问字段
print(response.message.content)
首先下载一个模型:
ollama pull gemma3然后安装 Ollama JavaScrip t库:
npm i ollama最后,与模型聊天:
import ollama from 'ollama'
const response = await ollama.chat({
model: 'gemma3',
messages: [{ role: 'user', content: 'Why is the sky blue?' }],
})
console.log(response.message.content)查看完整的可用模型列表,请点击此处。
对于编码用例,我们建议使用 glm-4.7-flash 模型。
注意:该模型需要 23 GB 的显存,上下文长度为 64000 个 token。
ollama pull glm-4.7-flash或者,你可以使用一个更强大的云模型(具有完整的上下文长度):
ollama pull glm-4.7:cloud使用 ollama launch 可借助 Ollama 模型快速搭建编码工具:
ollama launch
使用特定模型启动
ollama launch claude --model glm-4.7-flash
ollama launch claude --config
原文地址:https://docs.ollama.com/quickstart