前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >或许,我们并不需要Chinese-LLaMA3,构建高效Agent WorkFlow来合理利用大模型

或许,我们并不需要Chinese-LLaMA3,构建高效Agent WorkFlow来合理利用大模型

作者头像
否子戈
发布2024-04-26 17:26:34
2090
发布2024-04-26 17:26:34
举报
文章被收录于专栏:
相信大家已经关注到LLaMA3 8B版本的表现都可以比得上GPT-4和Claude3,70B的版本可想有多强。但是原版的llama3主要基于英文世界的语料训练,虽然它可以识别中文,但是由于中文的语料不丰富,就会导致使用中文交互时并不能获得优秀的表现。

目前社区已经出现了用中文语料二次训练过的llama3项目,而且数量还不少。虽然开源社区的这种热情有利于更多人享受新模型带来的进步,但是,我心中有几个疑问,让我对这种情况持怀疑态度。

首先,争先恐后的训练Chinese-LLaMA3是否有炒作之嫌,为了抢先抢占中文版头把交椅,其训练质量,语料的合理性,安全性等等,是否能让人信服?其次,中文语料和英文语料在知识层面是否重叠,基于训练团队的语料质量,能否让最终的结果在中文上拥有和英文相同的先进性?这里其实我一直有一个疑问,如果理论上llama3的能力可以用一个分值来评估,那么是否意味着任何团队做的中文训练,是否都应该在最终结果上获得相同的评分?最后,我们是否真的一定需要中文版的llama3,是不是非中文版的就无法在我们实际使用中完成我们的目标呢?中文训练后的模型,在性能上是否能够保持原始模型一致性?

就我自己的看法而言,我认为,现在已经是2024年了,我们不一定真的需要一个Chinese-LLaMA3

在我之前看过的一篇文章中,研究团队发现,经过中文语料训练的模型,在中文交互下的表现效果,不如通过将中文prompt翻译为英文后获得的结果的效果好。

从感性认知上,我们也可以理解这种情况发生的原因。中文世界的语料无论是数量上还是质量上都不如英文世界语料,而且中文语料的训练结果和英文语料的训练结果,并不能像人脑的理解力一样,直接画等号。

我们可否通过应用架构的优化,来获得相同体验下的更优效果呢?其实我们只需要一个中文语境下的大模型作为中间Agent,让两个大模型配合起来实现我们的目标即可。

在适当的开发工具中,我们只需要搭建一个简单的workflow即可。

该workflow中有3个过程节点,前面翻译为英文,再传给llama3,拿到结果后再翻译为中文。

它包含两个LLM,其中llama3作为目标模型,另外我们需要一个在中英翻译方面比较强的大模型作为中介,根据当前业务场景,提供system prompt,使得它可以翻译出行业的专业术语。

在用户端,后台架构的变化对前端用户的影响几乎是不可见的,用户该怎么聊天,还是怎么聊天,在体验上毫无感知,但是在结果的表现上,却可以获得llama3的加持,拥有更强的智能。

基于相同的原理,将来出现更为强劲的大模型时,我们只需要替换workflow中的节点即可,而无需在应用后台做大规模的调整和开发。

本文参与?腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2024-04-25,如有侵权请联系?cloudcommunity@tencent.com 删除

本文分享自 唐霜 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与?腾讯云自媒体分享计划? ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
http://www.vxiaotou.com