Ollama 快速入门

AI
本快速入门指南将引导您使用 Ollama 运行您的第一个模型。首先,请在 macOS、Windows 或 Linux 系统上下载 Ollama。

image.png

本快速入门指南将引导您使用 Ollama 运行您的第一个模型。

首先,请在 macOS、Windows 或 Linux 系统上下载 Ollama。

点击下载:https://ollama.com/download

下载完成后,就像安装普通软件以下安装 Ollama,自行完成。

安装完成后就可以继续后续操作:

运行模型

命令行方式

打开终端并运行以下命令:

ollama run gemma3

运行成功后,可直接在命令行与大模型进行聊天。

  

cURL 方式

// 拉取模型
ollama pull gemma3

最后,与模型聊天:

curl http://localhost:11434/api/chat -d '{
  "model": "gemma3",
  "messages": [{
    "role": "user",
    "content": "Hello there!"
  }],
  "stream": false
}'

  

Python方式

首先下载一个模型:

ollama pull gemma3

然后安装 Ollama 的 Python 库:

pip install ollama

最后,与模型聊天:

from ollama import chat
from ollama import ChatResponse

response: ChatResponse = chat(model='gemma3', messages=[
  {
    'role': 'user',
    'content': 'Why is the sky blue?',
  },
])
print(response['message']['content'])

# 或者直接从响应对象访问字段
print(response.message.content)

 

JavaScript方式

首先下载一个模型:

ollama pull gemma3

然后安装 Ollama JavaScrip t库:

npm i ollama

最后,与模型聊天:

import ollama from 'ollama'

const response = await ollama.chat({
  model: 'gemma3',
  messages: [{ role: 'user', content: 'Why is the sky blue?' }],
})
console.log(response.message.content)

查看完整的可用模型列表,请点击此处

编码

对于编码用例,我们建议使用 glm-4.7-flash 模型。

注意:该模型需要 23 GB 的显存,上下文长度为 64000 个 token。

ollama pull glm-4.7-flash

或者,你可以使用一个更强大的云模型(具有完整的上下文长度):

ollama pull glm-4.7:cloud

使用 ollama launch 可借助 Ollama 模型快速搭建编码工具:

ollama launch

  

支持的集成

  • OpenCode—— 开源编码助手
  • Claude Code——Anthropic 的智能编码工具
  • Codex——OpenAI 的编码助手
  • Droid——Factory 的人工智能编码代理

  

使用特定模型启动

ollama launch claude --model glm-4.7-flash

  

不启动进行配置

ollama launch claude --config

  

原文地址:https://docs.ollama.com/quickstart

  

睡眠和休息丧失了时间,却取得了明天工作的精力。 —— 毛泽东
0 不喜欢
说说我的看法 -
全部评论(
没有评论
关于
本网站专注于 Java、数据库(MySQL、Oracle)、Linux、软件架构及大数据等多领域技术知识分享。涵盖丰富的原创与精选技术文章,助力技术传播与交流。无论是技术新手渴望入门,还是资深开发者寻求进阶,这里都能为您提供深度见解与实用经验,让复杂编码变得轻松易懂,携手共赴技术提升新高度。如有侵权,请来信告知:hxstrive@outlook.com
其他应用
公众号