DH3G游戏资讯网

阿里推出文本搜索排序新技术,登顶国际权威 NLP 榜单 MS MARCO

发表于:2024-05-06 作者:创始人
编辑最后更新 2024年05月06日,3 月 28 日,阿里巴巴团队以 0.450 的得分,刷新了国际权威自然语言处理(NLP)榜单 MS MARCO 短文本检索排序任务历史纪录。据悉,该团队最新研发的文本检索及排序技术已通过阿里云智能搜

3 月 28 日,阿里巴巴团队以 0.450 的得分,刷新了国际权威自然语言处理(NLP)榜单 MS MARCO 短文本检索排序任务历史纪录。据悉,该团队最新研发的文本检索及排序技术已通过阿里云智能搜索产品 OpenSearch 对外输出。

文本检索排序任务需根据指定查询词,检索数据集中所有文档并进行排序。相关技术在机器阅读理解、智能问答、搜索引擎等领域应用广泛,一直是 NLP 领域重要的研究课题。由于候选文档数量巨大,文本检索排序通常包括粗排(召回)和精排两个阶段,其核心是在每个阶段建模查询词和候选文档的语义相关性。近两年, 基于大规模预训练语言模型训练的文本检索排序模型,较传统的统计模型效果提升显著,但业界在针对该任务设计适用工业实践的预训练语言模型底座及下游模型上仍有待突破。

MS MARCO 是文本检索排序领域最具代表性的数据集,收录了微软 Bing 搜索引擎和 Cortana 智能助手近百万查询词与 800 万文档在内的真实搜索场景数据。自 2018 年 MS MACRO 短文本检索排序任务发布以来,在全球范围内吸引了包括谷歌、Facebook、卡内基梅隆大学等上百个研究团队竞相挑战,促进了文本检索排序技术的发展。

3 月 28 日,阿里巴巴团队采用全新研发的文本检索与排序技术,登上 MS MARCO 短文本检索排序榜单榜首, 较第二名得分提升 2.5%。

据了解,阿里达摩院语言技术实验室与智能引擎团队提出了针对文本检索排序任务的新型预训练语言模型解决方案,即 Search Language Model (SLM) + Hybird List Aware Reranking (HLAR)。在粗排阶段,团队针对文本召回任务的特征设计了新的预训练语言模型 SLM, 在保证召回效率的同时将召回阶段的效果提升了 3.9%。在精排阶段,以 StructRobertaLarge 模型为底座,团队提出了以 Transformer 结构为基础、组合粗排与精排特征的重排序模型 HLAR, 进一步提升了文本排序的效果。

上述解决方案已通过阿里云智能搜索产品 OpenSearch 对外输出,在电商、教育、游戏等多个行业搜索应用中对比通用模型效果提升 10% 以上。

为推动中文领域文本检索与排序技术的发展,近期阿里也公开了基于阿里巴巴真实搜索场景数据构建的多领域文本搜索数据集 Multi-CPR(论文: https://arxiv.org/ abs / 2203.03367 ;数据: https://github.com/ Alibaba-NLP / Multi-CPR)。未来团队将逐步推进相关文本排序模型的开源。

2022-05-06 01:26:59
0