BOSh
文章188
标签246
分类52
315晚会 36氪 80后 AI AI Agent AI 代理 AI 助手 AI 网关 AI 评测 AI助手 AI大模型 AI安全 AI智能体 AI网关 API 集成 Agent AionUi C++ CLI Proxy API CLIProxyAPI CRM Claude Opus 4.6 DeepSeek DenchClaw DevOps GEO GPS GPU Gemini 3.1 Pro Gmail Gog Google AI Pro Google API Google Gemini HKUDS Hexo Hugo IPV6 Kimi-K2.5 LINUX LaTeX Linux Markdow MemU Bot MiniMax NAT64 NIX NODE NVIDIA Build NanoClaw Newsletter OpenAI 兼容接口 OpenClaw PDF 编译 PicoClaw Prismer QClaw QQ机器人 RAG Reddit Rust Skills Subagent SuperCall Telegram Bot WorkBuddy X YouTube ZeroClaw arXiv arch c++ git hugo iMessage n8n nanobot node js ntfs pacman podman zz.ac 东海 两性关系 个人助理 中东 中东冲突 中东局势 中国 中美 习惯养成 亚洲 代理 以色列 任务管理 伊朗 伊朗战争 保护主义 信息流 信息管理 健康管理 免费试用 养老金 内容工厂 内容生产 内容筛选 军事冲突 军事动态 军民融合 农村 分享 创业 办公自动化 加密货币 北斗 医学生 华为 博客 博客助手 博客部署成功 卫星 反重力 台海局势 台湾 国产 国产化 国产替代 国际 国际关系 国际局势 国际新闻 图说 地缘政治 基础设施 多代理 多模态AI 大模型 学习 安全 实时监控 家庭助理 家庭服务器 工作总结 工作效率 工作流编排 平凡的世界 平台责任 开源 微信 心理健康 情感 投资工具 指标看板 播客 收件箱清理 教程 教育制度 数据分析 数据投毒 文献管理 新能源汽车 日历聚合 时事 时事总结 显卡 晨报 智能体生态 朝鲜 架构 架构实践 核武器 桌面Cowork 模型接入 比亚迪 油价 活动运营 浏览器自动化 消息通道 消费者权益 渔船 游戏开发 湘雅医院 版本更新 特朗普 生态系统 生活 生活自动化 用例 电池技术 症状追踪 皮皮虾 监管 目标管理 知识库 社交媒体 社会保障 社会百态 社会观察 科技 科研助手 笔记 第一财经 算法推荐 纽森 经济 经济观察 经验分享 编程 网关 网络 网络安全 美国 美国政治 能源安全 腾讯 腾讯,龙虾,OpenClaw 腾讯云 自动化 自动化创作 自动化协作 自动化提醒 自动化流水线 自动化运维 自律教练 行为改变 视频摘要 记录 论文写作 论文阅读 语义搜索 语音代理 读书 读书笔记 读后感 财报季 路遥 运维 远程运维 邀请确认 部署指南 销售自动化 阅读感悟 随笔 项目管理 飞书 龙虾

一言

文章归档

NVIDIA Build 免费开放 Kimi-K2.5:用 OpenAI 兼容接口接入 OpenClaw

NVIDIA Build 免费开放 Kimi-K2.5:用 OpenAI 兼容接口接入 OpenClaw

OpenClaw 一键管理脚本(安装/更新/管理入口):

1
bash <(curl -sL kejilion.sh) app OpenClaw

提示:装好后在 OpenClaw 的 API 管理里新增 NVIDIA Build 的 OpenAI 兼容 provider(本文下方给出 baseUrl、model-id 与配置示例)。


一条重要更新:NVIDIA Build 已开放 kimi-k2.5,并且可以免费使用

这两天 NVIDIA Build 上线了 moonshotai/kimi-k2.5 模型,并提供 OpenAI 兼容接口。这意味着你可以用非常低的接入成本,把它接到 OpenClaw(以及各种支持 OpenAI 接口的 Agent / 工具)里进行对话与自动化工作流调用。

第一步:申请 NVIDIA Build API Key

先到 NVIDIA Build 的 API Keys 页面创建 Key:

https://build.nvidia.com/settings/api-keys

图1:NVIDIA Build API Keys 页面:创建并复制 API Key

图1:在 NVIDIA Build 生成 API Key。注意不要把 Key 明文发到群里或写进仓库。

第二步:确认接口参数(OpenAI 兼容)

你需要记住三个关键参数:

  • API Key:你刚创建的 key
  • Base URL(OpenAI 兼容)https://integrate.api.nvidia.com/v1
  • Chat Completions Endpoint/chat/completions
  • Model IDmoonshotai/kimi-k2.5

有些工具会让你直接填写"完整 endpoint",也就是:

1
https://integrate.api.nvidia.com/v1/chat/completions

但更常见、也更推荐的写法是只填 base URL(到 /v1),由客户端自动拼接 /chat/completions

图2:OpenAI 兼容接入参数示例:base-url 与 model-id

图2:OpenAI 兼容接入参数示例:base-url 与 model-id。

第三步:接入 OpenClaw(两种写法都给你)

OpenClaw 侧只要把它当作一个"OpenAI 兼容提供方(provider)"配置进去即可。下面给两种写法,优先推荐 A;如果你遇到客户端拼接路径不兼容,再用 B 作为兜底。

A. 推荐写法:baseUrl 写到 /v1(更通用)

示例(请把 YOUR_NVIDIA_KEY 换成你自己的 key):

1
2
3
4
5
6
7
8
9
10
11
12
13
14
{
"providers": {
"nvidia-kimi": {
"api": "openai-chat-completions",
"baseUrl": "https://integrate.api.nvidia.com/v1",
"apiKey": "YOUR_NVIDIA_KEY",
"models": ["moonshotai/kimi-k2.5"]
}
},
"defaults": {
"provider": "nvidia-kimi",
"model": "moonshotai/kimi-k2.5"
}
}

解释:

  • api 使用 OpenAI Chat Completions 兼容模式(对应 /chat/completions)。
  • baseUrl 建议写到 /v1,由客户端拼接后续路径。
  • modelmoonshotai/kimi-k2.5

B. 兜底写法:baseUrl 直接写到 /v1/chat/completions(少数工具需要)

如果你发现某些环境下客户端没有自动拼接 /chat/completions,可以尝试:

1
2
3
4
5
6
7
8
9
10
{
"providers": {
"nvidia-kimi": {
"api": "openai-chat-completions",
"baseUrl": "https://integrate.api.nvidia.com/v1/chat/completions",
"apiKey": "YOUR_NVIDIA_KEY",
"models": ["moonshotai/kimi-k2.5"]
}
}
}

注意:不同工具对 baseUrl 的语义略有差异。如果 B 仍不工作,优先回到 A,并检查工具是否要求单独填写 endpoint。

图3:在 OpenClaw 中配置 provider(OpenAI 兼容)示例

图3:在 OpenClaw 中配置 provider(OpenAI 兼容)示例。建议遮挡 API Key,只展示 baseUrl 与 model-id。

第四步:如何验证是否接入成功

最简单的验证方式:

  1. 改完配置后,按提示 重启 gateway 使配置生效(如果你刚刚用 openclaw config set 修改过配置,也同样建议重启)。
  2. 在你的聊天入口里发一句简单的测试对话(例如"用一句话解释 TCP 三次握手")。
  3. 观察 OpenClaw 的状态输出里 provider/model 是否显示为你设置的 nvidia-kimi / moonshotai/kimi-k2.5(不同版本显示字段可能略有差异)。

如果你使用的是命令行,也可以先看一下 OpenClaw 自身状态是否正常:

1
2
openclaw status
openclaw gateway status

注意事项与坑位提醒

  • 免费不等于无限额度:免费政策、速率、并发和每日额度可能变化,具体以 NVIDIA Build 实际策略为准。
  • 不要把 API Key 写进仓库:建议放环境变量或本机配置文件,并避免在截图/日志中泄露。
  • baseUrl 兼容差异:优先用 https://integrate.api.nvidia.com/v1;只有在客户端不拼接路径时才用完整 endpoint 写法。
  • 网络与代理:国内环境注意代理/网络策略对 integrate.api.nvidia.com 的可达性,遇到超时优先排查 DNS 与出站规则。

扩展:同类 OpenAI 兼容接口(Minimax M2.5、GLM 5)

如果你正在做多模型对比或准备不同的备选线路,除了本文的 NVIDIA Build(kimik2.5)之外,也可以关注以下两类常见的 OpenAI 兼容接入:

  • Minimax M2.5:在一些聚合平台或官方渠道提供 OpenAI 兼容入口,适合作为备选模型源。
  • z.ai 的 GLM 5:GLM 系列在部分平台同样提供 OpenAI 兼容接口,接入方式与本文类似,核心仍是 baseUrl + apiKey + model-id。

需要注意:不同平台的免费额度、速率限制与模型命名可能随时变化。建议你在 OpenClaw 中为每个 provider 单独建一个配置段,并保留一个可用的"兜底模型",以免临时策略变动影响日常工作流。

结语

对已经在用 OpenClaw 或者各种 Agent 框架的人来说,NVIDIA Build 提供的 OpenAI 兼容接口意味着接入成本非常低:拿到 key、填好 baseUrl 和 model-id,就可以快速把 kimi-k2.5 用起来。后续如果你希望把它做成一键迁移/一键切模型的体验,也很适合进一步做成脚本化模板。

如果你已经接入成功,也欢迎反馈 baseUrl 兼容情况(A 还是 B)。我后续可以整理成更稳的 OpenClaw 配置模板与排障清单。

本文作者:BOSh
本文链接:http://bosh.zz.ac/posts/756832.html
版权声明:本文由BoSh发布,部分内容来源于网络。