研究提出新型时间序列预测框架br。近期,中国科学院软件研究所研究团队为提升大语言模型时间序列预测性能,提出了向量注入式上下文学习框架。该框架能够稳定提升时间序列预测性能,并可以降低计算开销。
大语言模型进行时间序列预测时面临一项主要挑战——预训练文本与时间序列数据在分布与结构上存在差异。传统方法采用全量微调来减少这种差异,但其训练成本高、显存占用大,限制了实际应用。
研究团队提出引入上下文学习的方法LVICL。该方法通过在输入提示中引入任务示例,使模型无需更新参数即可实现“类似微调”的效果。为提升上下文学习对示例选择与顺序敏感的不稳定问题,该方法提取示例的向量表示,并以置换不变的方法进行聚合,从而消除顺序敏感性;采用轻量适配器对聚合后的上下文向量进行精练,抑制其中可能干扰预测的分量,增强对示例选择的鲁棒性;将优化后的向量注入到大语言模型各层的残差流中,以可控方式引导模型进行预测。
研究团队在多个时间序列预测基准数据集上对LVICL进行系统评估。实验表明,LVICL在保持大语言模型完全冻结、训练开销降低的前提下,能够稳定复现并进一步放大上下文学习带来的收益。与轻量微调方法相比,LVICL在多种数据集与实验设置下均表现出更强的预测能力,并在效率与性能的平衡上展现出更好的实用性。
相关论文被互联网领域顶级国际学术会议The Web Conference 2026(WWW-26)录用。

LVICL总体框架
研究团队单位:软件研究所

