Tags

5 个页面

大模型

终归还是回到国产模型

前文提到 Gemini Cli 登录的时候需要配置谷歌云的项目 ID,这里就已经不对劲,如果是个人账号不会有这个限制,能出现这个限制,已经开始进入谷歌的风控系统,认为你不是个人账号。

  • 麻烦事,用了小半个月,刚适应,现在要回到 cc + 国产模型的怀抱。
  • 谷歌自研芯片成本优势那么大吗?市面上主流的模式都是 Tokens 积分,谷歌现在还是按次计费。
  • GLM4.6 图片识别不太行,响应速度够快,照葫芦画瓢能力不行,模仿已有接口能力较弱;M2 图片识别凑合,指令遵循不够强, 照葫芦画瓢能力强。

update: 不知道是谷歌自己修复了,还是由于切换港区绑定了信用卡,账号又能正常使用了

阿里巴巴大模型策略

阿里巴巴(阿里)发布众多大模型,并非简单的“刷数量”,而是一种精心布局的**“模型即服务”(MaaS)生态策略**。这背后有多重考量,可概述为“对内赋能、对外建生态”:

博客翻译项目碎碎念:历史会话

博客翻译项目最初设计过于复杂——先解析 Markdown 格式,再用占位符保护内容,最后送给大模型翻译。其实这完全是多此一举,大模型本身就具备识别 Markdown 语法的能力,可以直接处理原始内容并在翻译时保持格式完整。

我们的工作就从调试代码,切换到调试大模型的提示词

模型:google/gemma-3-4b 硬件:Nvdia 3060 12GB

没错,选的非思考模型,思考模型在执行翻译任务时,效率不够高,对比了 4b 参数和 12b 参数的效果,针对翻译任务来说 gemma3 的 4b 参数已经足够了,12b 的参数在翻译任务上并没有明显的优势。

12b 参数的速度:11.32 tok/sec,4b 参数的速度:75.21 tok/sec