全部版块 我的主页
论坛 数据科学与人工智能 人工智能 深度学习
181 0
2025-11-26

UCIT,全称 Unseen Continual Instruction Tuning,是由中国科学院自动化研究所联合中国科学院大学前沿交叉科学学院、人工智能学院等团队于 2025 年发布的一个多模态大型语言模型的持续指令调优基准数据集,相关论文成果为「HiDe-LLaVA: Hierarchical Decoupling for Continual Instruction Tuning of Multimodal Large Language Model」。

该数据集包含六个精选任务子集,每个子集对应一种模型在监督微调阶段未接触的任务类型,共形成一个具有挑战性的「未见任务」测试集合,可以用来公平评测模型的适应性与结构保留能力。每条样本由任务说明(prompt/instruction)和对应的正确执行期望(ground-truth response)构成,用于衡量模型在零样本条件下的表现。

附件列表

UCIT.rar

大小:61.57 KB

只需: 202 个论坛币  马上下载

磁力链接,6.07G

本附件包括:

  • UCIT.torrent

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群