首页
学习
活动
专区
工具
TVP
发布

深度学习自然语言处理

专栏作者
1019
文章
1194517
阅读量
162
订阅数
仅用250美元,Hugging Face技术主管手把手教你微调Llama 3
我们知道,Meta 推出的 Llama 3、Mistral AI 推出的 Mistral 和 Mixtral 模型以及 AI21 实验室推出的 Jamba 等开源大语言模型已经成为 OpenAI 的竞争对手。
zenRRan
2024-05-11
1240
陈丹琦团队提出最新MoE架构Lory
陈丹琦团队提出了一种名为 Lory 的新型混合专家(Mixture-of-Experts,简称 MoE)模型,专门用于自回归语言模型的预训练。以下是对文章内容的详细解读。
zenRRan
2024-05-11
830
大语言模型对齐的四种方法!
语言模型的对齐在20年就有相关工作,22年谷歌提出基于指令微调的Flan,Openai则提出InstructGPT,ChatGPT,大模型的对齐工作受到广泛的关注。
zenRRan
2024-05-11
760
全新神经网络架构KAN来了!
比如,200个参数的KANs,就能复现DeepMind用30万参数的MLPs发现数学定理研究。
zenRRan
2024-05-11
2430
深度解析DPO及其变体在多种任务上的表现如何,该如何选择
今天,我要带大家深入了解一项关于大型语言模型(LLMs)的研究,这是由亚利桑那州立大学的Amir Saeidi、Shivanshu Verma和Chitta Baral三位专家带来的前沿成果。他们的最新论文《Insights into Alignment: Evaluating DPO and its Variants Across Multiple Tasks》为我们揭开了直接偏好优化(DPO)及其衍生方法的神秘面纱,这些方法在优化模型以符合人类偏好方面展现出了巨大潜力。
zenRRan
2024-05-11
1270
多模态图表理解新SOTA: TinyChart-3B,兼顾性能和效率
作为一种重要的信息来源,图表(Chart)能够直观地展示数据关系,被广泛地应用于信息传播、商业预测和学术研究中 [1]。随着互联网数据的激增,自动化图表理解受到广泛关注,近期诸如GPT-4V、QwenVL-Max和Gemini-Ultra等通用闭源多模态大模型都展现出一定的图表理解能力,开源模型Chartllama [2]、ChartAst [3]等也在图表问题回答、图表总结和图表转换等任务上取得强大的性能。然而,目前开源的图表理解模型有以下三个局限:(1)模型参数规模庞大,难以部署到应用中。例如Chartllama包含13B参数,无法直接部署到单张小于26 GB显存的消费级显卡上 [4]。(2)模型容易出现数值错误,尤其是回答涉及数值计算的问题时 [3]。(3)模型无法高效处理高清图片,而许多关键信息(比如OCR文本)往往需要在较高分辨率下才清晰可见。并且,考虑到标准视觉Transformer会产生较长的视觉特征序列,直接提高输入分辨率又会带来计算效率问题。
zenRRan
2024-05-11
570
LSTM一作新作xLSTM架构:大幅领先Transformer和状态空间模型(SSM)
这篇论文介绍了一种名为xLSTM(Extended Long Short-Term Memory)的新型递归神经网络架构,旨在解决传统LSTM(Long Short-Term Memory)网络的一些局限性,并提高其在语言建模等任务中的性能。
zenRRan
2024-05-11
2640
OpenAI最新研究——利用指令层次结构应对LLM攻击
今天要给大家介绍一篇OpenAI的在今年4月19日发表的一篇研究,该研究提出了一种指令层次结构(instruction hierarchy),以减少LLM被攻击的风险,提高模型的鲁棒性。
zenRRan
2024-04-30
1400
Bert类模型也具备指令遵循能力吗?
BERT模型,依托Transformer架构及其大规模预训练,为自然语言处理领域带来了深远的影响。BERT模型架构包含多层双向Transformer编码器,通过这种结构,BERT及其家族成员,如RoBERTa、ELECTRA、DeBERTa和XLM-R,能够深入学习并理解语言的上下文,尤其在自然语言理解任务上表现卓越。
zenRRan
2024-04-30
1080
LLM能否依据角色的过去预测未来?一篇有趣的研究
你是否想过,如果有一天,当你面临人生重大抉择时,有一个AI助手能够为你提供决策甚至能帮你做出决定?
zenRRan
2024-04-25
1050
最强MOE开源:Mixtral 8x22B 发布!
权重地址:https://huggingface.co/mistral-community/Mixtral-8x22B-v0.1
zenRRan
2024-04-19
3460
Meta无限长文本大模型来了:参数仅7B,已开源
Transformers 的二次复杂度和弱长度外推限制了它们扩展到长序列的能力,虽然存在线性注意力和状态空间模型等次二次解决方案,但从以往的经验来看,它们在预训练效率和下游任务准确性方面表现不佳。
zenRRan
2024-04-19
920
《跨语言大模型》最新综述
跨语言大模型(MLLMs)能够利用强大的大型语言模型处理和回应多种语言的查询,在多语言自然语言处理任务中取得了显著的成功。尽管取得了这些突破,但仍然缺乏一份全面的调查总结该领域现有方法和最新发展。因此,在本文中,我们进行了深入的综述,并提供了一个统一的视角,总结了多语言大型语言模型领域的最新进展和新兴趋势。本文的贡献可以总结如下:(1)首次综述:据我们所知,我们首次按照多语言对齐的方式对MLLMs研究领域进行了深入综述;(2)新分类法:我们提供了一个新的统一视角,总结了MLLMs的当前进展;(3)前沿与挑战:我们重点介绍了几个新兴领域并讨论了相应的挑战;(4)丰富资源:我们收集了丰富的开源资源,包括相关论文、数据语料库和排行榜。我们希望我们的工作能够推动MLLMs领域的突破性研究。
zenRRan
2024-04-19
1280
对谷歌最新提出的Infini-transformer模型进行代码复现
这篇文章主要内容为我个人对谷歌最新提出的Infini-transformer模型的个人见解,复现代码以及训练细节。
zenRRan
2024-04-18
1660
每日论文速递 | DeepMind提出SAFE,用LLM Agent作为事实评估器
摘要:大语言模型(LLM)在回答开放式话题的事实搜索提示时,经常会生成包含事实错误的内容。为了对模型在开放域中的长式事实性进行基准测试,我们首先使用 GPT-4 生成了 LongFact,这是一个由跨越 38 个主题的数千个问题组成的提示集。然后,我们提出可以通过一种我们称之为 "搜索增强事实性评估器"(Search-Augmented Factuality Evaluator,SAFE)的方法,将 LLM 代理用作长式事实性的自动评估器。SAFE 利用 LLM 将长式回复分解为一组单独的事实,并通过一个多步骤推理过程来评估每个事实的准确性,该过程包括向谷歌搜索发送搜索查询,并确定搜索结果是否支持某个事实。此外,我们还建议将 F1 分数扩展为长表事实性的综合指标。为此,我们平衡了回复中支持事实的百分比(精确度)和所提供事实相对于代表用户首选回复长度的超参数的百分比(召回率)。根据经验,我们证明了 LLM 代理可以实现超人的评级性能--在一组约 16k 的单个事实上,SAFE 与众包人类注释者的一致率为 72%,而在 100 个分歧案例的随机子集上,SAFE 的胜率为 76%。同时,SAFE 的成本比人类注释者低 20 多倍。我们还在 LongFact 上对四个模型系列(Gemini、GPT、Claude 和 PaLM-2)的 13 个语言模型进行了基准测试,发现较大的语言模型通常能获得更好的长格式事实性。LongFact、SAFE 和所有实验代码开源。
zenRRan
2024-04-11
1160
每日论文速递 | sDPO-不要一次就把对齐数据用完
A:这篇论文试图解决的问题是如何在大型语言模型(LLMs)的训练过程中,更有效地与人类偏好对齐。具体来说,它提出了一种名为逐步直接偏好优化(stepwise Direct Preference Optimization,简称sDPO)的方法,用于改进现有的直接偏好优化(DPO)方法。这个方法通过分步使用可用的偏好数据集,而不是一次性使用全部数据,从而在DPO训练框架中使用更精确对齐的参考模型。通过这种方法,论文展示了如何训练出一个性能更佳的最终模型,甚至在某些情况下,其性能超过了参数更多的其他流行的大型语言模型。
zenRRan
2024-04-11
1990
长文本之罪:Claude团队新越狱技术,Llama 2到GPT-4无一幸免
刚刚,人工智能初创公司 Anthropic 宣布了一种「越狱」技术(Many-shot Jailbreaking)—— 这种技术可以用来逃避大型语言模型(LLM)开发人员设置的安全护栏。
zenRRan
2024-04-11
1660
每日论文速递 | RLRF: 从反思反馈中不断迭代进行强化学习对齐
摘要:尽管 RLHF 在使 LLM 与人类偏好相一致方面大有可为,但它往往会导致表面上的一致,优先考虑风格上的变化,而不是改善 LLM 的下游性能。不明确的偏好可能会模糊调整模型的方向。缺乏探索会限制识别理想输出以改进模型。为了克服这些挑战,我们提出了一个新颖的框架:从反思反馈中强化学习Reinforcement Learning from Reflective Feedback (RLRF),它利用基于详细标准的细粒度反馈来提高 LLM 的核心能力。RLRF 采用自我反思机制来系统地探索和完善 LLM 的反应,然后通过 RL 算法对模型进行微调,同时对有前途的反应进行微调。我们在 "公正-评价"、"事实性 "和 "数学推理 "方面的实验证明,RLRF 的功效和变革潜力超出了表面的调整。
zenRRan
2024-04-11
1830
每日论文速递 | 一次编码平行解码:高效Transformer解码
摘要:基于Transformer的 NLP 模型功能强大,但计算成本较高,限制了应用场景。经过微调的编码器-解码器模型在专业领域很受欢迎,其性能优于 GPT-4 等大型通用解码器模型。我们为编码器-解码器模型引入了一种新的配置,它能提高结构化输出和问题解答任务的效率,在这些任务中,一个输入需要多个输出。我们的方法,即提示中解码器(PiD),对输入进行一次编码,对输出进行并行解码,通过避免重复输入编码来提高训练和推理效率,从而减少解码器的内存占用。在对话状态跟踪、总结和问题解答任务方面,我们实现了与子任务数量大致成比例的计算量减少,与性能相当或更好的一流模型相比,速度提高了 4.6 倍。
zenRRan
2024-04-11
1240
每日论文速递 | NAACL'24:自生成翻译记忆缓解翻译持续学习遗忘问题
摘要:现代神经机器翻译系统在几种不同的语言中表现出强劲的性能,并在不断改进。然而,它们的持续学习能力仍然受到灾难性遗忘问题的严重限制。在这项工作中,我们利用encoder-decoder transformer的一个关键特性,即它们的生成能力,提出了一种持续学习神经机器翻译系统的新方法。我们展示了如何利用重放记忆,将模型本身作为并行句子的生成器,从而有效地学习由不同语言组成的经验流。我们通过实证证明,我们的方法可以抵消灾难性遗忘,而无需明确记忆训练数据。代码将在发表后公开。
zenRRan
2024-04-11
880
点击加载更多
社区活动
RAG七天入门训练营
鹅厂大牛手把手带你上手实战
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
http://www.vxiaotou.com