推荐算法日报 - 2026-01-22

LLM从“辅助”走向“决策”:今日多篇论文展示了LLM在推荐/广告系统中角色的深化。从Netflix的LLM推理重排到阿里的LLM预算分配决策,LLM不再局限于特征增强或内容理解,而是开始承担核心的排序、重排乃至策略优化任务。核心范式是利用LLM的推理能力和世界知识,解决传统模型难以处理的冷启动和少样本问题,并开始追求线上收益。; 多行为与鲁棒性成为精排焦点:精排阶段的研究重点从单一行为建模转向更复杂的多行为协同。今日论文揭示了两个关键挑战:行为语义不一致(如点击与购买意图不同)和噪声干扰。解决

推荐算法日报 - 2026-01-21

轻量级后处理适配:今日论文显示,无需重新训练模型,仅通过简单的后处理(如PCA降维、多模态特征融合)即可有效提升模型在新场景或复杂输入下的性能。这反映了工业界对低成本、高效率模型适配方案的持续追求。; 跨模态特征增强:为了应对推荐系统中日益复杂的输入(如长文本、噪声上下文),研究者开始探索超越传统文本编码的特征工程方法,例如将文本视为图像进行视觉编码,以获取更鲁棒或互补的语义表示。

推荐算法日报 - 2026-01-15

生成式推荐与LLM的深度融合:今日多篇论文聚焦于利用LLM的生成能力重构推荐任务。从统一搜索与推荐的多任务调优(GEMS),到为多模态物品分配语义ID进行自回归生成(MMGRec),再到为设备端部署进行模型压缩(OD-LLM),技术路径正从“嵌入-检索”范式向“生成”范式演进,并深入探索其高效、可扩展的实现方案。; 工业场景驱动的系统级优化:工业界论文展现出强烈的工程落地导向,致力于解决大规模系统的效率瓶颈。无论是快手解决页面导航的实时决策(KLAN),美团优化序列建模的推理效率(GAP-Net

推荐算法日报 - 2026-01-14

智能体与LLM驱动的推荐架构深化:今日多篇论文聚焦于如何更有效地将大语言模型(LLM)和智能体(Agent)范式融入推荐系统。从解耦记忆与推理的智能体架构(MemRec),到利用LLM生成语义画像增强传统模型(SPiKE),再到探索基于合成数据的全新预训练范式(MPT),研究正从简单的“LLM-as-Tool”向更深度的“LLM-as-Architecture”演进,旨在解决协同信号注入、认知过载和模型通用性等核心挑战。; 推荐系统的鲁棒性与可解释性优化:工业界和学术界共同关注模型在实际部署中的

推荐算法日报 - 2026-01-13

生成式推荐范式走向成熟与落地:今日多篇论文聚焦于生成式推荐(Generative-Rec),标志着该范式正从概念探索走向系统化落地。快手提出的Term IDs (TIDs) 范式,旨在解决LLM生成式推荐的核心瓶颈(幻觉、语义鸿沟),并展示了显著的跨域效果。同时,学术界也在探索将生成式范式引入多模态推荐(MMGRec)和长列表排序(RLPO)。这些工作共同表明,如何为LLM设计高效、低幻觉、可泛化的物品标识符(Semantic-ID),已成为生成式推荐落地的关键。; 工业界聚焦系统效率与工程实践

推荐算法日报 - 2026-01-09

生成式推荐进入“生成+验证”协同优化新阶段:今日多篇论文显示,生成式推荐正从单纯的自回归预测,演进为引入过程奖励模型(PRM)进行中间步骤验证的协同范式。快手PROMISE通过PRM引导波束搜索解决语义漂移,腾讯SCoTER通过结构化蒸馏迁移LLM推理链,都体现了对生成过程进行“监督”和“对齐”的强烈需求,标志着该领域向更可控、更可靠的方向发展。; 工业界聚焦“对齐”问题:从目标到评估:今日工业界论文普遍关注“对齐”问题,但维度不同。快手HarmonRank解决多目标优化目标(分类损失)与评估指

推荐系统线上能跑多大的模型

本文不是从系统优化角度谈复杂的模型的部署和优化问题,而是从行业成本角度,看线上推理多复杂的模型是可以满足成本及ROI要求的。 做一个假设: • 电商推荐行业,主要是更熟悉成本核算 • 部署标准的Transformer作为排序模型,参考OneTrans结构 • 参数规模对齐qwen2的系列模型,更直观看看能跑哪个尺寸

Talent Dilution Roofline:你的算法团队可能不需要再招人了?

Roofline model是高性能计算领域用来分析程序性能瓶颈的一个直观模型,因为画出来像一个屋顶形状而得名。如下图,横坐标是算法的计算强度Flop/Byte(算法的浮点计算数除以内存访问量),纵坐标是算力Flop/s,它描述的是如果算法计算强度提升算力线性提升(Memory-Bound),直到算数强度超过硬件的拐点,之后算力逼近硬件的上限(Compute-Bound)。它核心回答了:你的程序到底受什么限制——计算能力还是内存带宽?应该优化哪里?

OneTrans 推荐系统对齐序列处理与特征交叉

从精排切换成深度学习以来,工业界一直会把排序的模型结构研究切分成基本的两部分,序列处理和特征交叉,甚至有一些公司的排序组,下面都拆成两个Team分别处理行为序列和特征交叉。从最早的时候,比如序列用DIN来处理,序列就被压成了一个或多个向量表征,再参与与其他特征的交叉。我们可以理解成MLP(concat(DIN, Features)),发展到今天大多数的模型研究,还是分立地把MLP换成DCN,增加个LHUC,复杂化为Rank Mixer或Transformer,把DIN叠加MHA,直接换成Transformer,可以写成RankMixer(concat(Transformer, Features))。 从MLP(concat(DIN, Features))到RankMixer(concat(Transformer, Features)),本质没有变,就是序列处理和特征交叉是一个隐式的两阶段处理,序列被压缩到Vector Space才和特征发生交叉。而LLM的有趣之处,就是在Next Token Prediction利用到的交叉发生在词序列的Token Space之中,它能启发推荐排序模型的,就是每一个特征的交叉应该发生在用户序列的Token Space之中。