Tags

23 个页面

ai

终归还是回到国产模型

前文提到 Gemini Cli 登录的时候需要配置谷歌云的项目 ID,这里就已经不对劲,如果是个人账号不会有这个限制,能出现这个限制,已经开始进入谷歌的风控系统,认为你不是个人账号。

  • 麻烦事,用了小半个月,刚适应,现在要回到 cc + 国产模型的怀抱。
  • 谷歌自研芯片成本优势那么大吗?市面上主流的模式都是 Tokens 积分,谷歌现在还是按次计费。
  • GLM4.6 图片识别不太行,响应速度够快,照葫芦画瓢能力不行,模仿已有接口能力较弱;M2 图片识别凑合,指令遵循不够强, 照葫芦画瓢能力强。

update: 不知道是谷歌自己修复了,还是由于切换港区绑定了信用卡,账号又能正常使用了

Gemini CLI 安装部署,谷歌追上来了

小半个月过去了,国内的 MiniMax,GLM4.6 都付费体验了一波,差距还是存在,cc 工具挺好用的,昨晚折腾前端界面的优化,你懂得,笔者基本不懂前端,vibe coding 以后,才开始接触前端技术栈。国内的大模型没搞定,尝试刚发布的 gemini3,五分钟搞定了,切换到站点的归档页面,你就能看到“书架”。

常年做的后端C++开发,谷歌在这块的影响力太大了,默认谷歌的产品不会太差,大模型前期是落后,不到两年的时间,现在已经追赶上来。

首页的 AI 搜索,百度不知道猴年马月能搞出来,不是说百度不行,是国内的产品没去思考,搜索里面嵌入 AI,最重要的是速度,谷歌做到了。

阿里巴巴大模型策略

阿里巴巴(阿里)发布众多大模型,并非简单的“刷数量”,而是一种精心布局的**“模型即服务”(MaaS)生态策略**。这背后有多重考量,可概述为“对内赋能、对外建生态”:

基于命令行的AI编码交互

惯例打开 Trae 准备开始搞搞代码,通知栏收到消息:claude 模型下线了,不能用,后续大概率也无法恢复,官方给了补偿方案,使用次数增加 300(截止到一月份)。

查了下,不出预料,anthropic 公司按照美国的要求,禁止国内的公司继续使用 claude 系列模型。混入 trae discord 社群,看到不少人吐槽 claude 模型的下线,毕竟大部分人都是冲着 claude 来的。早在 claude 4.5 模型没有在 trae 同步上线,这事就已经有了苗头。

所有AI的馈赠,早已在暗中标好了价格

文章发布的频率随着AI的使用,明显提高了不少,我也有意在文中的标签中进行区分,作者栏目也会备注大模型的名称。问题还是存在,AI出来的文章,的参与程度明显变低了,很多文章隔上半个月,内容基本都忘了。写代码的时候也会出现类似的情况,碰到问题,第一时间想到是用AI分析,而不是基于已有的只是进行问题的分析排查,惰性明显提升了。


生成式AI虽能提升工作效率,但其"馈赠"代价巨大。北大研究通过分析41万篇论文和纵向实验发现:AI加速了知识生产,却导致严重同质化;哈佛研究显示AI造成"资历偏向",初级岗位减少7.7%,加剧马太效应;个人层面,AI带来的创造力提升是短暂"幻觉",停用后消失,但思想同质化却持续存在,形成"创意伤痕"。

字节AI编码新范式 SOLO

以前用的产品,在进行代码开发的时候,大差不差,但是字节的SOLO,在代码开发的时候,就有了很大的不同。最开始通过邀请码参与内测,现在是提交邮箱,等待审核,审核通过后,就可以使用了。忘记什么时候进行的申请,今天打开 Trae 收到了审核通过的消息。