Paper2Video 是由新加坡国立大学于 2025 年发布的首个论文与视频配对的基准数据集,相关论文成果为「Paper2Video: Automatic Video Generation from Scientific Papers」,旨在为从学术论文自动生成演示视频(包括幻灯片、字幕、语音、以及演讲者头像)任务提供标准基准与评估资源。
该数据集共包含 101 对论文与演示视频对(paper–video pairs),每篇论文平均约 28.7 页,含有约 13,300 个单词与 44.7 张图表;每个视频平均时长约 6 分 15 秒,最长可达 14 分钟,平均包含 16 张幻灯片。每条样本除论文与视频外,还附带论文元信息(包括标题、链接、会议与年份等)、演讲者身份图像与语音样本。
数据组成Metadata 文件:包含每条样本的论文标题 (paper) 、论文链接 (paper_link) 、演示视频链接 (presentation_link) 、会议名称 (conference) 、年份 (year) 等字段。作者身份文件(author identity),这些身份信息可用于个性化演讲者合成、说话人渲染、头像视频生成等任务:每位作者附带身份图像(如 ref_img.png)语音样本(如 ref_audio.wav)