首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

arXiv快讯:轻松了解8月第3周NLP领域最新论文

NLP 每周论文快讯

WizardMath:通过强化的Evol-Instruct增强大型语言模型的数学推理能力

??标题:WizardMath: Empowering Mathematical Reasoning for Large Language Models via Reinforced Evol-Instruct

??链接:http://arxiv.org/abs/2308.09583v1

??作者:Haipeng Luo, Qingfeng Sun, Can Xu, Pu Zhao, Jianguang Lou, Chongyang Tao, Xiubo Geng, Qingwei Lin, Shifeng Chen, Dongmei Zhang

??代码链接:https://github.com/nlpxucan/wizardlm

? stars:5.3k

??更新时间:2023-08-18

? 关键内容:

论文提到了一种名为WizardMath的方法,通过将强化学习应用于数学领域,增强了大型语言模型(LLM)在数学推理任务中的能力。通过广泛实验,研究人员发现WizardMath在两个数学推理基准上表现出非凡的功能,超过了其他开源LLM模型。

自动生成API文档摘要:提高开发人员信息提取效率的新方法

??标题:Enhancing API Documentation through BERTopic Modeling and Summarization

??链接:http://arxiv.org/abs/2308.09070v1

??作者:AmirHossein Naghshzan, Sylvie Ratte

??代码链接:https://github.com/scam2023-bert/bertopic

? stars:0

??更新时间:2023-08-17

? 关键内容:

1.?本文提出了一种利用BERTopic的方法,针对解释应用程序编程接口(API)文档的复杂性,自动生成API文档摘要,以提高开发人员的信息提取效率。

2.?通过对生成的摘要主题进行评估,该方法展示了良好的性能一致性互操作性

3.?该研究为API文档分析领域做出了贡献,通过提供对重复主题的见解、识别常见问题和生成潜在解决方案,增强了API文档理解的可访问性和效率。

预训练语言模型

思想图(GoT):提升大型语言模型的提示功能

??标题:Graph of Thoughts: Solving Elaborate Problems with Large Language Models

??链接:http://arxiv.org/abs/2308.09687v1

??作者:Maciej Besta, Nils Blach, Ales Kubicek, Robert Gerstenberger, Lukas Gianinazzi, Joanna Gajda, Tomasz Lehmann, Michal Podstawski, Hubert Niewiadomski, Piotr Nyczyk, Torsten Hoefler

??代码链接:https://github.com/spcl/graph-of-thoughts

? stars:19

??更新时间:2023-08-18

? 关键内容:

1.?介绍了思想图(GoT)框架,提高了大型语言模型(LLM)中的提示功能。

2. 揭示了GoT能够对LLM作为任意图生成的信息进行建模,通过顶点和边的关系提炼整个思想网络的本质。

3. 证明了GoT在不同任务上相比传统范式(如ToT)具有优势,提高了分拣质量并降低了成本。

ChatHaruhi:基于大型语言模型的角色扮演聊天机器人

??标题:ChatHaruhi: Reviving Anime Character in Reality via Large Language Model

??链接:http://arxiv.org/abs/2308.09597v1

??作者:Cheng Li, Ziang Leng, Chenxi Yan, Junyi Shen, Hao Wang, Weishi MI, Yaying Fei, Xiaoyang Feng, Song Yan, HaoSheng Wang, Linkang Zhan, Yaokai Jia, Pingyu Wu, Haozhen Sun

??代码链接:https://github.com/LC1332/Chat-Haruhi-Suzumiya

? stars:0

??更新时间:2023-08-18

? 关键内容:

1.?通过改进的提示和从脚本中提取的字符记忆,我们提出了一种算法来控制语言模型,以模仿特定的虚构角色。

2.?我们构建了ChatHaruhi数据集,涵盖32个中文/英文电视/动漫角色的模拟对话,拥有超过54k对话。

3.?自动和人工评估结果表明,我们的方法提高了基线的角色扮演能力

机器翻译

SOTASTREAM:一种灵活的数据生成与使用分离的机器翻译方法

??标题:SOTASTREAM: A Streaming Approach to Machine Translation Training

??链接:http://arxiv.org/abs/2308.07489v1

??作者:Matt Post, Thamme Gowda, Roman Grundkiewicz, Huda Khayrallah, Rohit Jain, Marcin Junczys-Dowmunt

??代码链接:https://github.com/marian-nmt/sotastream

? stars:5

??更新时间:2023-08-14

? 关键内容:

1.?提出了一种将数据生成数据使用分开的替代方法,消除了传统数据准备步骤的静态性和不可更改性。

2.?发布了开源工具包SOTASTREAM,实现了这种方法,缩短了训练时间,增加了灵活性,降低了实验管理的复杂性,并减少了磁盘空间占用。

3. 证明这种方法不会影响训练模型的准确性,同时提供了一组用户可定义的运算符,用于动态修改数据流。

文本生成与摘要

ChatEval:多智能体内容评估框架

??标题:ChatEval: Towards Better LLM-based Evaluators through Multi-Agent Debate

??链接:http://arxiv.org/abs/2308.07201v1

??作者:Chi-Min Chan, Weize Chen, Yusheng Su, Jianxuan Yu, Wei Xue, Shanghang Zhang, Jie Fu, Zhiyuan Liu

??代码链接:https://github.com/chanchimin/chateval

? stars:12

??更新时间:2023-08-14

? 关键内容:

1.?本文探索了大型语言模型(LLM)文本评估中作为人类评估替代品的潜力。

2.?通过多智能体辩论框架,我们超越了单智能体提示策略,提高了处理复杂任务的效率和有效性。

3.?我们构建了一个名为ChatEval的多智能体裁判团队,模仿人类评估过程,超越了纯文本评分。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OXHjVw9xF8Jb81FEK1J8DKug0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券
http://www.vxiaotou.com