- 标签:
- 日报 (60)
- 技术趋势 (42)
- 推荐系统 (39)
- AI (37)
- 周报 (7)
- 论文 (7)
- 思考 (6)
- 深度学习 (4)
- Agentic Engineering (4)
- 推荐 (2)
- 工具 (2)
- Harness Engineering (2)
- 强化学习 (1)
- 思维模型 (1)
- Transformer (1)
- LLM (1)
- 管理 (1)
- 生成式 (1)
2017 年,Ilya Sutskever 读到《Attention Is All You Need》时,立即意识到”这就是我们需要的一切”。OpenAI 随即放弃了 RNN/LSTM 路线,全面转向 Transformer,催生出整个 GPT 系列。Transformer 的并行能力让他们得以实现一直相信的 Scaling 路径。八年后的今天,推荐系统终于走到了同样的路口。 2024 年之前,推荐领域有了 HSTU、TIGER 这样的工作,但大多数团队还在观望。2025 年,我观察到一个明显的转变:大家开始认真地把排序模型 Dense Scaling Up,搞生成式召回和端到端推荐。这很像 2017 年——当时大家忙着把 LR/GBDT/FM 切换到 Deep Model 和双塔,切换过程持续了一两年,之后再没人回头。我的判断是,2026 年将是推荐系统 All-In Transformer 的一年,不改变就落后。
本周推荐系统研究围绕三条主线展开。第一条是 Semantic ID 生成式推荐从范式验证进入工程深水区——冷启动信号平衡、广告变现兼容、分布外鲁棒性、推理能力注入,五篇论文分别攻克不同的落地痛点,其中阿里巴巴 OneSearch-V2 线上取得 CTR +3.98%、转化率 +3.05% 的实效。第二条是 LLM Agent 在推荐和搜索中的角色正在从"端到端替代"走向"分层协作"——推理归 LLM,执行归确定性模块,训练用强化学习对齐中间步骤与最终目标。第三条是工业搜索排序系统的效率战——淘宝 KARMA 用语义正则化解决 LLM 微调中的知识退化,UniScale 论证数据与模型必须协同扩展,DIET 将训练数据压缩至 1-2% 仍保持性能趋势一致。 本周共收录 16 篇论文。KARMA 是本周最值得关注的工业论文,覆盖淘宝搜索全链路(召回/粗排/精排)并完成线上部署验证。工业界贡献集中在阿里巴巴搜索体系,学术界则在 LLM Agent 与生成式推荐两个方向持续推进。