karminski-牙医 (@karminski3) 's Twitter Profile
karminski-牙医

@karminski3

A coder, road bike rider, server fortune teller, electronic waste collector, co-founder of KCORES, ex-director at IllaSoft, KingsoftOffice, Juejin.

ID: 1071224721046261760

linkhttps://kcores.com calendar_today08-12-2018 02:07:30

2,2K Tweet

15,15K Followers

1,1K Following

karminski-牙医 (@karminski3) 's Twitter Profile Photo

Qwen3 新版本的召回测试结果出了,大幅提升!相比之前五一出的235B,新版本的235B-Thinking 在120K 长度都有 68% 的召回。相当可用了

Qwen3 新版本的召回测试结果出了,大幅提升!相比之前五一出的235B,新版本的235B-Thinking 在120K 长度都有 68% 的召回。相当可用了
karminski-牙医 (@karminski3) 's Twitter Profile Photo

有没有大佬给我这个小白科普下 AdventureX 是啥? 这是个漫展吗? 到底发生了啥瓜这么多.... 这么刺激 🫥 ......

有没有大佬给我这个小白科普下 AdventureX 是啥? 这是个漫展吗? 到底发生了啥瓜这么多.... 这么刺激 🫥 ......
karminski-牙医 (@karminski3) 's Twitter Profile Photo

砺算的那个 6nm 显卡还有个专业卡 7G105,跟消费卡是相同GPU,不过显存提升到了 24GB GDDR6 内存并支持 ECC。 我搜了一下并没有搜到 GPU 最大可用的显存带宽,如果按照 NVIDIA Ampere (8 nm) 系列卡比如 RTX A5000来估算的话,显存带宽至少有500GB/s+

砺算的那个 6nm 显卡还有个专业卡 7G105,跟消费卡是相同GPU,不过显存提升到了 24GB GDDR6 内存并支持 ECC。

我搜了一下并没有搜到 GPU 最大可用的显存带宽,如果按照 NVIDIA Ampere (8 nm) 系列卡比如 RTX A5000来估算的话,显存带宽至少有500GB/s+
karminski-牙医 (@karminski3) 's Twitter Profile Photo

来看这个神奇的YOLO模型,它可以用来标记人物的脸部,眼部,胸部,或者空中的无人机..... 然后还能给动漫图片评分, 评分依据是识别出来的胸部大小(........... (感觉作者把好几个东西糅合到了一起....) 地址:huggingface.co/Anzhc/Anzhcs_Y…

来看这个神奇的YOLO模型,它可以用来标记人物的脸部,眼部,胸部,或者空中的无人机..... 然后还能给动漫图片评分, 评分依据是识别出来的胸部大小(...........

(感觉作者把好几个东西糅合到了一起....)

地址:huggingface.co/Anzhc/Anzhcs_Y…
karminski-牙医 (@karminski3) 's Twitter Profile Photo

再给大家的AIGC工作流里来两个工具级别的LoRA——背景模糊和背景清晰LoRA 没错这两个LoRA是相对的,可以让图片的背景变模糊或者变清晰,适合用来模拟大光圈虚化效果或者将原本模糊的背景变清晰。 背景模糊LoRA:civitai.com/models/1809726 背景清晰LoRA:civitai.com/models/1812015

再给大家的AIGC工作流里来两个工具级别的LoRA——背景模糊和背景清晰LoRA

没错这两个LoRA是相对的,可以让图片的背景变模糊或者变清晰,适合用来模拟大光圈虚化效果或者将原本模糊的背景变清晰。

背景模糊LoRA:civitai.com/models/1809726
背景清晰LoRA:civitai.com/models/1812015
karminski-牙医 (@karminski3) 's Twitter Profile Photo

上海交通大学人工智能学院与 IPADS 、 Zenergize AI 共同开发了个新模型—— SmallThinker-21BA3B-Instruct 从分数上看与Qwen3-30B-A3B 不相上下, 但参数量少了很多。它能在i9-14900 上输出30 token/s, 在树莓派5上也能输出6.6 token/s . 尤其是GPQA-Diamond 分数比Qwen3-30B

上海交通大学人工智能学院与 IPADS 、 Zenergize AI 共同开发了个新模型——
SmallThinker-21BA3B-Instruct

从分数上看与Qwen3-30B-A3B 不相上下, 但参数量少了很多。它能在i9-14900 上输出30 token/s, 在树莓派5上也能输出6.6 token/s . 尤其是GPQA-Diamond 分数比Qwen3-30B
karminski-牙医 (@karminski3) 's Twitter Profile Photo

昨天刚发布的混元3D世界模型实测! 大模型竞技场又来啦,这次给大家测试腾讯新出的混元3D世界模型的360度全景图模型

karminski-牙医 (@karminski3) 's Twitter Profile Photo

智谱刚刚发布了 GLM-4.5! 新模型包括 GLM-4.5-355B-A32B 和 GLM-4.5-Air-106B-A12B。这两个都是混合推理模型,可以开关思切换考或者非思考模式。 从跑分上来看,最亮眼的是仅用了大概 DeepSeek-R1 一半左右的参数量达到了一个与DeepSeek-R1 不相上下的水平,其中 MATH 500

智谱刚刚发布了 GLM-4.5! 

新模型包括 GLM-4.5-355B-A32B 和 GLM-4.5-Air-106B-A12B。这两个都是混合推理模型,可以开关思切换考或者非思考模式。

从跑分上来看,最亮眼的是仅用了大概 DeepSeek-R1 一半左右的参数量达到了一个与DeepSeek-R1 不相上下的水平,其中 MATH 500
karminski-牙医 (@karminski3) 's Twitter Profile Photo

智谱 Z.ai 的 GLM-4.5 写代码实测来啦! 这次我们也是进化到了大象牙膏测试, GLM-4.5 是目前我测试过的第三个可以完成大象牙膏测试的大模型. 需要说的是, GLM-4.5 的生成质量相当高, 除了 OrbitControls 库的引用问题外, 没有任何代码运行上的问题. 大家看到的是我让 GLM-4.5 运行10次的结果,

karminski-牙医 (@karminski3) 's Twitter Profile Photo

LMArena 的 web 开发榜单 Qwen3-Coder 刷了个并列第一。 其实我觉得刷 web 开发其实是一个很好的方向,现在 web 比后端开发活跃很多,而且很直观能看到效果。专门推出一个面向web开发的模型都是值得的。接下来估计 GLM-4.5 也能挤进这个榜单。真的是国内开源模型盛况了[赢牛奶] (图来自LMArena

LMArena 的 web 开发榜单 Qwen3-Coder 刷了个并列第一。

其实我觉得刷 web 开发其实是一个很好的方向,现在 web 比后端开发活跃很多,而且很直观能看到效果。专门推出一个面向web开发的模型都是值得的。接下来估计 GLM-4.5 也能挤进这个榜单。真的是国内开源模型盛况了[赢牛奶]

(图来自LMArena
karminski-牙医 (@karminski3) 's Twitter Profile Photo

千问依然在持续火力输出,几个小时前又发布了 Qwen3-30B-A3B-Instruct-2507! 同样这个是个非思考模型,从官方放出的分数来看比上一个版本有很大的提升,AIME25 从之前的21.4 (思考开关关闭) 提升到了61.3 ! 估计这周还有Qwen3-32B 和其它更小参数量的模型更新,期待一波!

千问依然在持续火力输出,几个小时前又发布了 Qwen3-30B-A3B-Instruct-2507!

同样这个是个非思考模型,从官方放出的分数来看比上一个版本有很大的提升,AIME25 从之前的21.4 (思考开关关闭) 提升到了61.3 !

估计这周还有Qwen3-32B 和其它更小参数量的模型更新,期待一波!
karminski-牙医 (@karminski3) 's Twitter Profile Photo

Unsloth 量化版 Qwen3-30B-A3B-Instruct-2507-GGUF 也发布了!神速! 我直接给大家截图了 128G MAC 的内存占用情况。8bit最高只需要36G,4bit最高19.2G,相当可用了! 另外这次的新 Qwen3-30B-A3B 数学成绩跟 DeepSeek-V3-0324 不相上下。用于日常任务应该是足够的。编程的话 LiveCodeBench v6 和

Unsloth 量化版 Qwen3-30B-A3B-Instruct-2507-GGUF  也发布了!神速!

我直接给大家截图了 128G MAC 的内存占用情况。8bit最高只需要36G,4bit最高19.2G,相当可用了!

另外这次的新 Qwen3-30B-A3B 数学成绩跟 DeepSeek-V3-0324 不相上下。用于日常任务应该是足够的。编程的话 LiveCodeBench v6 和
karminski-牙医 (@karminski3) 's Twitter Profile Photo

Google 的知识库APP—— NotebookLM 支持把笔记导出视频了! 简单来讲,现在只需要你写一个提纲,然后让AI帮你补充内容,再用这个一键生成视频的功能,就能直接做科普短视频。完全不用任何录制/口播/剪辑。 另外,还没用过 NotebookLM

karminski-牙医 (@karminski3) 's Twitter Profile Photo

自动检测篮球比赛 3 秒违例! 前几天刚给大家分享完毕分析足球的视觉框架,现在分析篮球的来啦! 这是个教程合集,叫做 state-of-the-art computer vision models and techniques 最先进的计算机视觉模型和技术。 里面有使用 YOLOv11、SAM 2、Florence-2、PaliGemma 2 和 Qwen2.5-VL

karminski-牙医 (@karminski3) 's Twitter Profile Photo

GLM-4.5 的EQBench 结果也出来了!第五名!仅次于kimi-k2/o3/gemini-2.5/4o 同样长篇创意写作也是第五名。这应该是召回比kimi-k2好的效果。 就体验来说,GLM-4.5 的确更适合写代码,我还没有测 Claude Code + GLM-4.5 会不会效果更好,有同学试了吗?体验咋样?

GLM-4.5 的EQBench 结果也出来了!第五名!仅次于kimi-k2/o3/gemini-2.5/4o

同样长篇创意写作也是第五名。这应该是召回比kimi-k2好的效果。

就体验来说,GLM-4.5 的确更适合写代码,我还没有测 Claude Code + GLM-4.5 会不会效果更好,有同学试了吗?体验咋样?
karminski-牙医 (@karminski3) 's Twitter Profile Photo

Imagen4 - 0606 现排名人工智能图像分析领域的第 3 位。不知道接下来有没有开源模型能超过这个水平。FLUX Kontext 在某些场景还是不太够用的。