首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏有三AI

    BERTBERT模型压缩技术概览

    因此,讨论如何在不过多的损失BERT性能的条件下,对BERT进行模型压缩,是一个非常有现实意义的问题。 本文先介绍模型压缩的概念及常见方法;随后,对目前出现的BERT剪枝的技术做一个整体的介绍。

    1.3K20发布于 2020-08-17
  • 来自专栏学习和吃饭一样意义非凡

    ELECTRA:用Bert欺骗Bert

    ICLR2020 斯坦福和Google为我们提供了一种新思路,用Bert来"欺骗"Bert。今天我们来为大家介绍ELECTRA的思路。

    1.4K21发布于 2020-03-31
  • 来自专栏AI研习社

    解密 BERT

    BERT简介 毫不夸张的讲,谷歌AI实验室的BERT深刻影响了NLP的格局。 ?

    3.4K41发布于 2019-10-24
  • 来自专栏腾讯Bugly的专栏

    图解BERT模型:从零开始构建BERT

    BERT模型与现有方法的文本分类效果。

    44.3K3020发布于 2019-01-30
  • 来自专栏AINLP

    pytorch-pretrained-BERTBERT PyTorch实现,可加载Google BERT预训练模型

    Github上刚刚开源了一个Google BERT的PyTorch实现版本,同时包含可加载Google BERT预训练模型的脚本,感兴趣的同学可以关注: https://github.com/huggingface

    4.9K00发布于 2019-10-10
  • 来自专栏机器学习算法与Python学习

    解密 BERT

    本文转自『AI开发者』(okweiwu) BERT简介 毫不夸张的讲,谷歌AI实验室的BERT深刻影响了NLP的格局。 ?

    1.2K10发布于 2019-10-24
  • 来自专栏Notes

    BERT详解

    bert 是什么?

    4.4K54发布于 2020-09-22
  • 来自专栏null的专栏

    BERT模型解析

    BERT的基本原理 BERT是基于上下文的预训练模型,BERT模型的训练分为两步:第一,pre-training;第二,fine-tuning。

    1.2K10编辑于 2022-09-27
  • 来自专栏数据分析与挖掘

    bert相关变体

    ALBERT: A Lite BERT for Self-supervised Learning of Language Representations 减少bert模型的参数: 将词嵌入矩阵进行分解

    71020发布于 2021-02-25
  • 来自专栏程序员一一涤生

    BERT论文解读

    预训练的BERT模型可以通过fine-tuned 在广泛的任务中创造新的最佳记录,比如问答任务,语言推理任务等,而不需要对BERT本身架构做实质性的修改。

    1.1K40发布于 2019-10-10
  • 来自专栏全栈程序员必看

    快速使用 BERT 生成词向量:bert-as-service

    BERT 模型是一种 NLP 预训练技术,本文不介绍 BERT 的原理,主要关注如何快速上手使用 BERT 模型生成词向量用于下游任务。

    2.5K10编辑于 2022-09-05
  • 来自专栏mathor

    BERT and its family

    这就是穷人用的 BERT。在Distill BERT,Tiny BERT,Mobile BERT,Q8BERT,ALBERT 授人以鱼不如授人以渔,究竟有哪些方法可以使Model变小呢?

    1.1K30发布于 2020-11-09
  • 来自专栏数据派THU

    Bert时代的创新:Bert应用模式比较及其它

    本文比较了Bert的不同应用模式,并分析了可能的NLP创新路径。 最近两个月,我比较关注Bert的领域应用现状,以及Bert存在哪些问题及对应的解决方案。

    82140发布于 2019-05-29
  • 来自专栏zingpLiu

    BERT模型详解

    BERT的损失函数只考虑了mask的预测值,忽略了没有掩蔽的字的预测。这样的话,模型要比单向模型收敛得慢,不过结果的情境意识增加了。

    1.7K30发布于 2020-10-27
  • 来自专栏我还不懂对话

    BERT简单使用

    Use BERT as feature 如何调用bert,将输入的语句输出为向量? 如果在自己的代码中添加bert作为底层特征,需要官方例子run_classifier.py的那么多代码吗?

    66720发布于 2021-10-19
  • 来自专栏DeepHub IMBA

    图解BERT:通俗的解释BERT是如何工作的

    谷歌2018年发布的BERT是NLP最有影响力的论文之一。

    2.2K30发布于 2021-04-16
  • 来自专栏小鹏的专栏

    基于bert的余弦距离(bert4keras实现)

    本节介绍 基于bert的余弦距离计算相似度。

    1.2K20发布于 2020-05-08
  • 来自专栏mathor

    BERT-of-Theseus

    最近了解到一种称为"BERT-of-Theseus"的BERT模型压缩方法,源自论文《BERT-of-Theseus: Compressing BERT by Progressive Module Replacing

    65030发布于 2021-06-08
  • 来自专栏数据分析与挖掘

    bert训练代码

    模型 self.bert_model = bert_model(config=bertconfig) self.bert_model.to(self.device)

    65840发布于 2020-08-26
  • 来自专栏程序员一一涤生

    BERT论文解读

    预训练的BERT模型可以通过fine-tuned 在广泛的任务中创造新的最佳记录,比如问答任务,语言推理任务等,而不需要对BERT本身架构做实质性的修改。

    81500发布于 2019-10-10
领券
http://www.vxiaotou.com