本文作者:访客

看完最新国产AI写的公众号文章 我慌了

访客 2025-12-10 18:00:47 321406
看完最新国产AI写的公众号文章 我慌了摘要: 这一次,AI真的是快要砸掉我的饭碗了。因为如果你现在想根据NeurIPS 2025的最佳论文写一篇公众号文章,只需要把它丢给AI并且附上一句话:帮我解读这篇论文,并写一个图文并...

这一次,AI真的是快要砸掉我的饭碗了。

因为如果你现在想根据NeurIPS 2025的最佳论文写一篇公众号文章,只需要把它丢给AI并且附上一句话:

帮我解读这篇论文,并写一个图文并茂的微信公众号推送来介绍这篇文章。

看完最新国产AI写的公众号文章 我慌了

只需静候几分钟,AI就水灵灵地把完整的微信公众号科普文章给呈现了出来,来感受一下这个feel(上下滑动浏览):

看完最新国产AI写的公众号文章 我慌了

不得不说啊,这个AI从标题开始就真的把最最最重要的关键信息NeurIPS 2025最佳论文精准抓了出来。

并且Gates一下,更是把名词动词化,是有点语言编辑功底在身上的。

回头细看这个AI处理的过程。

首先,它会根据这篇论文的内容,先处理文字的部分,将文章分为了引言、核心问题、破局之道、实验结果、深入分析、结论与展望这六大部分,是符合一篇论文解读文章的逻辑。

然后AI会把论文中要引用的图片和表格进行适当的裁剪和标注,并插进文章里面,还会在图片下方附上图注:

看完最新国产AI写的公众号文章 我慌了

一气呵成,真的是文字+图片+排版一气呵成。

那么这到底是何许AI是也?

不卖关子,它就是智谱最新升级的新一代视觉推理模型——GLM-4.6V。

看完最新国产AI写的公众号文章 我慌了

在深度体验一波之后,我们发现写图文并茂的公众号推文,还只是GLM-4.6V能力的一隅。

接下来,老规矩,一波实测,走起~

学生党看论文,更方便了

首先来到智谱的官网(https://chat.z.ai/'>https://chat.z.ai/),在左上方模型下拉菜单中选择GLM-4.6V。

看完最新国产AI写的公众号文章 我慌了

然后根据任务的需求,我们可以在输入框下方快速选择任务类型,也可以在工具选项中勾选图像识别、图像处理、图像搜索或购物搜索等工具。

像刚才我们写公众号文章时,就选择了文档智读功能(会默认勾选图像处理工具)。

看完最新国产AI写的公众号文章 我慌了

研究论文、报告,更方便了

同样是在文档智读功能下,看论文这件事已经变得太便捷了。

例如我们上传Transformer和Mamba两篇论文,然后附上一句Prompt:

结合这两篇论文的图表,对比一下Transformer和Mamba模型的异同,并帮我思考一下大模型架构下一步该如何发展?

看完最新国产AI写的公众号文章 我慌了

同样是几分钟后,一份图文并茂的对比分析就诞生了(上下滑动浏览):

看完最新国产AI写的公众号文章 我慌了

可以看到,GLM-4.6V先是对Transformer和Mamba架构分别做了核心特点的介绍;然后以表格和图文的形式对二者进行了关键维度上的对比;最后也是对大模型架构的未来发展方向做出了总结。

如此功能之下,不仅仅是对比看论文,像是研究、分析报告这类任务也会派上大用场。

这一次,我直接喂给GLM-4.6V四份财报(苹果、谷歌、亚马逊和Meta):

帮我对比这四家公司Q3财报,图表形式做分析。

看完最新国产AI写的公众号文章 我慌了

GLM-4.6V的思考过程同样是调取了各个财报中的关键图表和数据,然后先是汇总成了一份对比表格,再对关键指标做了逐一的解析,最终给出了关键性结论。

甚至你可以不用提供任何资料,只需要一句话就能生成报告:

搜索一下最近新出豆包AI手机,并生成图文并茂的报告。

看完最新国产AI写的公众号文章 我慌了

由此可见,在GLM-4.6V的加持之下,解读论文、报告,统统都变成了一句话的事儿。

一张图复刻B站网页版

GLM-4.6V还有一个特别有意思的功能,它只需要看一眼网站,就能高度复刻出来!

我们先截取B站首页的截图:

看完最新国产AI写的公众号文章 我慌了

然后开启图片识别和图片处理两个工具,并简单一句话下达指令:

复刻这个网站,网站里包含的图片也要复刻出来。

然后GLM-4.6V就开始唰唰唰地敲代码:

看完最新国产AI写的公众号文章 我慌了

同样是几分钟的时间,一个高度还原B站首页的完整HTML和CSS代码就搞定了:

看完最新国产AI写的公众号文章 我慌了

我们还可以对初始结果做进一步的优化,例如来上一句:

把主题变成深色模式。

看完最新国产AI写的公众号文章 我慌了

再细如页面里的排版布局,统统都可以通过自然语言的方式来做调整。

不得不说,这种玩法可以给前端程序员省了不少的工作量;而且还有个福利哦——价格更便宜了。

GLM-4.6V系列相较于GLM-4.5V降价50%,API 调用价格低至输入 1 元/百万tokens,输出 3 元/百万 tokens。

看完最新国产AI写的公众号文章 我慌了

而且据说GLM-4.6V已经进入到智谱的Coding Plan套餐里喽~

长视频也是能hold住

在文档、图片之后,另一种多模态——视频,GLM-4.6V也能处理。

我们以Ilya在多伦多大学的一段演讲为例:

看完最新国产AI写的公众号文章 我慌了

10分钟时长的视频内容,GLM-4.6V只需要几十秒的时间就能将其总结到位:

看完最新国产AI写的公众号文章 我慌了

进一步的,你还可以要求GLM-4.6V来翻译视频中Ilya演讲的所有内容:

看完最新国产AI写的公众号文章 我慌了

以后看AI大佬英文演讲的视频,真的是方便太多了。

万物皆可GLM-4.6V

除了我们上面提到的案例之外,还有好多好多真实场景都能用的上GLM-4.6V.

例如想解一下一道考研数学真题的解法,咱们就把题目截图丢给它:

帮我解答这道题。

看完最新国产AI写的公众号文章 我慌了

GLM-4.6V会很快分析解题的详细过程并给出正确答案:C。

看完最新国产AI写的公众号文章 我慌了

再如你看到一张可视化的图表,想要把它转换成数据:

看完最新国产AI写的公众号文章 我慌了

同样的操作,同样一句话,就可以完成了:

看完最新国产AI写的公众号文章 我慌了

值得一提的是,哪怕是手机拍照拍下来的图片、表格等,也都是可以一键OCR的哦~

包括古文手稿:

看完最新国产AI写的公众号文章 我慌了

GLM-4.6V知道需要按照从右到左、从上到下的顺序来阅读:

看完最新国产AI写的公众号文章 我慌了

还有视觉任务中经常用的目标检测,在GLM-4.6V这里也是可以搞定的。

例如我们给一张猫咪们的合影,然后Prompt如下:

识别图中所有猫的品种。请以合法的JSON格式返回结果,结果是一个list,每一个list元素对应一个目标检测结果dict,dict的key由label、bbox_2d组成,值分别为检测到的猫的品种和结果坐标框。例如:[

{‘label’: ‘金渐层-1’, ‘bbox_2d’: [1,2,3,4]}, {‘label’: ‘金渐层-2’, ‘bbox_2d’: [4,5,6,7]}]

看完最新国产AI写的公众号文章 我慌了

不一会儿的功夫,GLM-4.6V就会框出所有猫咪:

{label: 虎斑猫-1, bbox_2d: [95,152,192,825]},;{label: 虎斑猫-2, bbox_2d: [185,332,310,852]},;{label: 暹罗猫-1, bbox_2d: [295,352,428,902]},;{label: 美短-1, bbox_2d: [415,520,508,922]},;{label: 缅因猫-1, bbox_2d: [498,262,603,852]},;{label: 英短-1, bbox_2d: [603,452,697,872]},;{label: 挪威森林猫-1, bbox_2d: [685,120,797,832]},;{label: 虎斑猫-3, bbox_2d: [802,482,882,832]}再经过渲染,我们就得到了经典的目标检测效果:

看完最新国产AI写的公众号文章 我慌了

已经是开源里的SOTA了

从整体实测过程和结果来看,GLM-4.6V在体感上是非常丝滑的。

而之所以如此,也离不开它背后自身实力的迭代升级。

这次智谱升级的GLM-4.6V分为了两个版本,分别是:

GLM-4.6V(106B-A12B):面向云端与高性能集群场景的基础版GLM-4.6V-Flash(9B):面向本地部署与低延迟应用的轻量版

智谱不仅将这个版本的视觉推理模型的上下文窗口大小提升到了128K tokens,在MMBench、MathVista、OCRBench等30多个主流多模态评测Benchmark中,也是取得了同级别SOTA的结果!

看完最新国产AI写的公众号文章 我慌了

其中9B版本的GLM-4.6V-Flash整体表现超过Qwen3-VL-8B,106B参数12B激活的GLM-4.6V表现比肩2倍参数量的Qwen3-VL-235B。

除了评测榜单结果之外,智谱还将GLM-4.6V背后的技术细节也亮了出来——

首次在模型架构中将Function Call(工具调用)能力原生融入视觉模型,打通从视觉感知到可执行行动(Action)的链路,为真实业务场景中的多模态 Agent 提供统一的技术底座。

评测结果、技术实力固然重要,但到了AI发展的现阶段,到底实不实用、好不好用才是真正能让AI应用杀出自己一片天地的护城河。

从这次深度实测结果来看,GLM-4.6V,绝对是做到了这一点的那个AI。

最后,如果小伙伴对GLM-4.6V感兴趣,链接就放下面了,赶紧去体验吧~

GLM-4.6V地址:

https://chat.z.ai

阅读
分享