「字少信息量大」,Salesforce、MIT 钻研者手把手教 GPT
经由人类评估试验 ,字少T钻钻研者发现 ,信息当 GPT-4 将「稿子」改到第三版的手把手教时候,「信息密度」以及「语言精辟度」两个因素抵达了一种最佳失调形态 。字少T钻
近些年来,信息自动摘要技术取患了长足的手把手教后退,这主要归功于范式的字少T钻转变 —— 从在标注数据集上妨碍有把守微调转变为运用狂语言模子(LLM)妨碍零样本 prompt,好比 GPT-4。信息不需要格外的手把手教磨炼 ,详尽的字少T钻 prompt 就能实现对于摘要长度、主题、信息气焰等方面特色的手把手教详尽操作 。
但一个方面每一每一被轻忽:摘要的字少T钻信息密度。从实际上讲,信息作为对于另一个文本的手把手教缩短,摘要理当比源文件更密集 ,也便是搜罗更多的信息。思考到 LLM 解码的高延迟,用更少的字数涵盖更多的信息颇为紧张,特意是对于实时运用而言 。
可是,信息量密度是一个凋谢式的下场:假如摘要搜罗的细节缺少 ,那末至关于不信息量;假如搜罗的信息过多,又不削减总长度 ,就会变患上难以清晰 。要在牢靠的 token 估算内传递更多信息 ,就需要将抽象 、缩短 、融会三者散漫起来 。
在最近的一项钻研中 ,来自 Salesforce 、MIT 等机构的钻研者试图经由收罗人类对于 GPT-4 天生的一组密度越来越高的摘要的偏好来判断这一限度。对于提升 GPT-4 等狂语言模子的「表白能耐」,这一措施提供了良多开辟 。
论文链接 :https://arxiv.org/pdf/2309.04269.pdf
数据集地址 :https://huggingface.co/datasets/griffin/chain_of_density
详细来说 ,他们将每一个 token 的平均实体数目作为密度的代表,天生为了一个初始的、实体浓密的摘要,而后在不削减总长度(总长度为 5 倍)的情景下,一再识别并融会前一个摘要中缺失的 1-3 个实体,每一个摘要的实体与 token 比例都高于前一个摘要。凭证人类的偏好数据 ,作者最终判断,人类更喜爱简直与人类编写的摘要同样密集的摘要 ,而且比艰深 GPT-4 prompt 天生的摘要更密集 。
总体来说,该钻研的贡献搜罗 :
开拓一种基于 prompt 的迭代措施 (CoD),使患上摘要的实体密度越来越高;
对于 CNN/《逐日邮报》文章中越来越密集的摘要妨碍家养以及自动评估,以更好地清晰信息量(倾向于更多实体)以及清晰度(倾向于更少的实体)之间的掂量;
开源了 GPT-4 摘要