首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

#性能

蚂蚁集团:Apache HoraeDB时序数据库性能提升2-4倍是如何做到的?

TakinTalks稳定性社区

Apache HoraeDB 是蚂蚁集团针对高基数时序数据场景设计并优化的开源时序数据库,后捐献给 Apache 软件基金会。它专门针对需要处理大量时间序列数据...

1500

Node.js 22 正式发布,支持 Require() ESM 模块!

ConardLi

V8 的 Maglev 编译器现在默认启用于支持的架构上(https://v8.dev/blog/maglev)。Maglev 提高了短生命周期 CLI 程序的...

1310

Structure | 评估AlphaFold2在肽结构预测上的表现

DrugAI

今天为大家介绍的是来自Alican Gulsevin团队的一篇论文。近期在计算工具方面的进展极大提升了对蛋白质结构预测的准确度。计算预测方法已经被用于许多可溶性...

2000

J. Med. Chem. | 生物属性中对分子生成模型进行基准测试

DrugAI

今天为大家介绍的是来自Liwei Liu,Tingjun Hou和Yu Kang团队的一篇论文。基于深度学习的分子生成模型因其生成具有新颖结构和理想理化属性的分...

2400

Nat. Mach. Intell. | 基于癌症影像生物标志物的基础模型

DrugAI

今天为大家介绍的是来自Hugo J. W. L. Aerts团队的一篇论文。深度学习中的基础模型特指一个在大量数据上训练的单一大型模型,作为各种下游任务的基础。...

1900

如何用更小的开源模型击败专有 LLM

云云众生s

任务性能是三个要求中最模糊的,但也是优化和改进范围最广的要求。实现足够任务性能的主要挑战之一是衡量它:很难正确获得 LLM 输出的可靠、定量评估。

1700

如何使用chatgpt修改代码

用户3519280

2100

微软 & 清华 | 提出LoRAs专家混合方法:MOLE,可动态、高效地组合多个LoRA!

ShuYini

LoRA模块化架构让研究人员们开始探索组合多个LoRA方法,旨在实现学习特征的联合生成,增强各种任务的性能。当前线性算术组合和参数调优组合都存在一定的缺陷,为了...

6610

苹果 | 发布OpenELM系列模型,含代码、权重、训练全过程!

ShuYini

结果显示,OpenELM 的性能优于使用公开数据集进行预训练的现有开源 LLM(表 1)。例如,具有 11 亿个参数的 OpenELM 性能优于 OLMo。

11410

充分发挥潜力!Google | 大模型(LLMs)的专属:多样本上下文学习(Many-shot ICL)

ShuYini

大语言模型非常擅长上下文学习(ICL),随着大模型上下文窗口的不断扩展,它可以让我们使用数百或者上千个样例,然而,当前多样本上下文学习(many-shot IC...

9610

苹果卷开源大模型,OpenELM亮相

NewBeeNLP

结果显示,OpenELM 的性能优于使用公开数据集进行预训练的现有开源 LLM(表 1)。例如,具有 11 亿个参数的 OpenELM 性能优于 OLMo。

8510

双塔模型的瓶颈究竟在哪?

NewBeeNLP

开放域问答系统的泛化性和鲁棒性一直是一个业界难题,其中位于最顶层的稠密检索模型(Dense Retriever)常常被诟病其OOD泛化能力不如传统的BM25算法...

6310

8B文字多模态大模型指标逼近GPT4V,字节、华师、华科联合提出TextSquare

机器之心

此外,通过利用大规模的数据集,揭示了指令调整数据规模、训练收敛损失和模型性能之间的关系。尽管少量的指令调整数据可以很好地训练 MLLM,随着指令调整数据的不断扩...

4710

加速扩散模型,最快1步生成SOTA级图片,字节Hyper-SD开源了

机器之心

最近,扩散模型(Diffusion Model)在图像生成领域取得了显著的进展,为图像生成和视频生成任务带来了前所未有的发展机遇。尽管取得了令人印象深刻的结果,...

9410

苹果卷开源大模型,公开代码、权重、数据集、训练全过程,OpenELM亮相

机器之心

结果显示,OpenELM 的性能优于使用公开数据集进行预训练的现有开源 LLM(表 1)。例如,具有 11 亿个参数的 OpenELM 性能优于 OLMo。

6010

挑战拯救痴心“舔狗”,我和大模型都尽力了

机器之心

游戏规则很简单:如果玩家在几轮对话内说服 “他” 放弃追求对他并无青睐的女神,就算挑战成功。

6710

微软发布Phi-3,性能超Llama-3,可手机端运行

机器之心

新模型有三个版本,其中 Phi-3 mini 是一个拥有 38 亿参数的语言模型,经过 3.3 万亿 token 的训练,其整体性能在学术基准和内部测试上成绩优...

7310

首个基于Mamba的MLLM来了!模型权重、训练代码等已全部开源

机器之心

近年来,多模态大型语言模型(MLLM)在各个领域的应用取得了显著的成功。然而,作为许多下游任务的基础模型,当前的 MLLM 由众所周知的 Transformer...

7910

大模型一定就比小模型好?谷歌的这项研究说不一定

机器之心

可以看出来,相比于训练计算量,超分辨率的性能更依赖模型大小。实验结果表明较小模型有一个明显的局限性:不管训练计算量如何,它们都无法达到与较大模型同等的性能。

7310

小模型时代来了?微软推出其最小参数 AI 模型,性能逼近 GPT-3.5

深度学习与Python

微软在去年 12 月时发布了 Phi-2,其性能与 Llama 2 等更大的型号不相上下。微软表示,Phi-3 的性能比前一版本更好,其响应速度接近比它大 10...

7010
领券
http://www.vxiaotou.com