本地部署 vs 云端 API:新手用大模型该怎么选
两条路摆在你面前你决定开始认真用大语言模型了。不管是写代码、搞内容创作、做数据分析,还是纯粹玩玩。 这时候你面临一个选择: 路线A:本地部署。 把模型下载到自己的电脑上,用自己的硬件跑。代表方案:Ollama + Hermes。 路线B:云...
两条路摆在你面前你决定开始认真用大语言模型了。不管是写代码、搞内容创作、做数据分析,还是纯粹玩玩。 这时候你面临一个选择: 路线A:本地部署。 把模型下载到自己的电脑上,用自己的硬件跑。代表方案:Ollama + Hermes。 路线B:云...
这篇文章解决什么问题你想在自己的电脑上跑一个 Hermes 模型。打开 Hugging Face 一看——8B、70B、405B,这些数字和你的显卡有什么关系?你的 RTX 4060 能跑 70B 吗?量化是怎么回事?选错了模型会不会把显卡...
一个你早晚要搞懂的概念如果你在用大模型——不管是在线聊天还是调用 API——你一定会反复遇到一个词:Token。 「这个模型支持 128K token 的上下文」「API 按 token 数量计费」「你的对话已经超出了 token 上限」 ...
从一个让人抓狂的体验说起你有没有遇到过这种情况: 你问 AI 一个完全正常的问题,比如「帮我写一个小说里的反派角色独白」,结果 AI 回复你: 「作为一个AI语言模型,我不能生成可能被视为有害或冒犯性的内容……」 或者你问「感冒了应该吃...
一个生活中的类比假设你要培训一个新来的客服人员。 第一种方式:你给他一大堆标准话术——客户问什么、应该答什么,让他照着学。这叫监督学习。 第二种方式:他学完基本话术后开始实际接客。你听他的对话录音,好的回答你点赞,不好的你标个差评,让他慢慢...
为什么需要聊天模板你有没有想过这样一个问题:当你在 ChatGPT 或者其他聊天界面里打字对话的时候,你输入的文字到底是怎么传给模型的? 你可能觉得——不就是把我打的字直接喂给模型吗? 没那么简单。 大语言模型本质上是一个「文本续写器」——...
一个容易混淆的概念「开源模型」这个词你肯定见过无数次了。每次有大公司放出新模型,媒体标题八成会带上「开源」两个字。 但问题是:这些模型真的「开源」吗?「开源」在 AI 领域到底是什么意思? 如果你是写代码的,你对「开源」的理解可能是:源代码...
新手最常见的困惑你打开 Hugging Face,搜索 Hermes,出来一堆结果: Hermes-2-Pro-Mistral-7B Hermes-3-Llama-3.1-8B Hermes-3-Llama-3.1-70B Hermes-...
一个不太正经的开场在硅谷那些光鲜亮丽的 AI 创业故事里,标准剧本是这样的:名校博士毕业,大厂混几年,拿到顶级 VC 的钱,租一个漂亮的办公室,开始招兵买马。 Nous Research 的故事完全不是这个套路。 它的起点是一个 Disco...
先回答一个最基本的问题如果你最近刚开始关注大模型领域,大概率会在各种排行榜、Reddit帖子、Hugging Face热门下载里反复看到一个名字——Hermes。 那 Hermes 到底是什么? 简单粗暴地说:Hermes 是由 Nous ...
2024年8月,Nous Research 发布了 Hermes 3,这是当时开源社区里最大胆的一步棋——直接对 Meta 的 Llama 3.1 405B 做全参数微调。要知道,405B 参数量的模型,光是推理就够呛了,居然还有人想把它完...
Hermes 4 是 Nous Research 在 2025 年推出的重磅升级,基于 Llama 3.1 架构,提供 14B、70B 和 405B 三个版本。但真正让人兴奋的不是参数量的变化,而是它引入的混合推理模式——模型在回答之前,可...