Apache HoraeDB 是蚂蚁集团针对高基数时序数据场景设计并优化的开源时序数据库,后捐献给 Apache 软件基金会。它专门针对需要处理大量时间序列数据...
V8 的 Maglev 编译器现在默认启用于支持的架构上(https://v8.dev/blog/maglev)。Maglev 提高了短生命周期 CLI 程序的...
今天为大家介绍的是来自Alican Gulsevin团队的一篇论文。近期在计算工具方面的进展极大提升了对蛋白质结构预测的准确度。计算预测方法已经被用于许多可溶性...
今天为大家介绍的是来自Liwei Liu,Tingjun Hou和Yu Kang团队的一篇论文。基于深度学习的分子生成模型因其生成具有新颖结构和理想理化属性的分...
今天为大家介绍的是来自Hugo J. W. L. Aerts团队的一篇论文。深度学习中的基础模型特指一个在大量数据上训练的单一大型模型,作为各种下游任务的基础。...
任务性能是三个要求中最模糊的,但也是优化和改进范围最广的要求。实现足够任务性能的主要挑战之一是衡量它:很难正确获得 LLM 输出的可靠、定量评估。
LoRA模块化架构让研究人员们开始探索组合多个LoRA方法,旨在实现学习特征的联合生成,增强各种任务的性能。当前线性算术组合和参数调优组合都存在一定的缺陷,为了...
结果显示,OpenELM 的性能优于使用公开数据集进行预训练的现有开源 LLM(表 1)。例如,具有 11 亿个参数的 OpenELM 性能优于 OLMo。
大语言模型非常擅长上下文学习(ICL),随着大模型上下文窗口的不断扩展,它可以让我们使用数百或者上千个样例,然而,当前多样本上下文学习(many-shot IC...
开放域问答系统的泛化性和鲁棒性一直是一个业界难题,其中位于最顶层的稠密检索模型(Dense Retriever)常常被诟病其OOD泛化能力不如传统的BM25算法...
此外,通过利用大规模的数据集,揭示了指令调整数据规模、训练收敛损失和模型性能之间的关系。尽管少量的指令调整数据可以很好地训练 MLLM,随着指令调整数据的不断扩...
最近,扩散模型(Diffusion Model)在图像生成领域取得了显著的进展,为图像生成和视频生成任务带来了前所未有的发展机遇。尽管取得了令人印象深刻的结果,...
游戏规则很简单:如果玩家在几轮对话内说服 “他” 放弃追求对他并无青睐的女神,就算挑战成功。
新模型有三个版本,其中 Phi-3 mini 是一个拥有 38 亿参数的语言模型,经过 3.3 万亿 token 的训练,其整体性能在学术基准和内部测试上成绩优...
近年来,多模态大型语言模型(MLLM)在各个领域的应用取得了显著的成功。然而,作为许多下游任务的基础模型,当前的 MLLM 由众所周知的 Transformer...
可以看出来,相比于训练计算量,超分辨率的性能更依赖模型大小。实验结果表明较小模型有一个明显的局限性:不管训练计算量如何,它们都无法达到与较大模型同等的性能。
微软在去年 12 月时发布了 Phi-2,其性能与 Llama 2 等更大的型号不相上下。微软表示,Phi-3 的性能比前一版本更好,其响应速度接近比它大 10...