编程之家(jb51.cc)编程百科栏目主要推荐程序员常用编程技术介绍,以下是人工智能相关编程语言,主要信息提供给程序员快速了解所需要学习的编程技术语言。
这个系列会针对NLP比赛,经典问题的解决方案进行梳理并给出代码复现~也算是找个理由把代码从TF搬运到torch。Chapter1是CCF BDC2019的赛题:...
前三章我们陆续介绍了半监督和对抗训练的方案来提高模型在样本外的泛化能力,这一章我们介绍一种嵌入模型的数据增强方案。之前没太重视这种方案,实在是方法过于朴实。。。...
自然语言处理(NLP)是指我们可以使用软件来理解口语或书面文本中的自然语言的方式。
BERT 是由 Google 开发的自然语言处理模型,可学习文本的双向表示,可在许多不同任务中的显著提升在上下文中理解无标记文本的能力。
据工信部日前公布的数据显示,我国的人工智能核心产业规模超过4000亿元,比2009年同期增长6倍多。
机器之心深入调研网易,发布70页报告深度解密「别人家」的AI技术团队如何驾驭技术、实现业务发展。身处「增长要靠技术造」的后移动互联网时代,AI技
9 月 27 日,腾讯在人工智能、生命科学跨学科应用领域的最新研究成果《scBERT as a Large-scale Pretrained D
「在 2021 年全球有 2430 万名软件开发者,这一数字在 2030 年预计将达到 4500 万人,」谷歌 TensorFlow 技术推广工
9 月 13 日,卡内基梅隆大学副教授 Graham Neubig 在 Twitter 上宣布,与 @stefan_fee 和 @odashi_
自 2012 年,以 AlexNet 为代表的深度学习技术突破开始,至今已有 10 年。知名 AI 学者、Robust.AI 创始人 Gary
9 月 24 日 16:00-19:30,上海 SOHO 复兴广场 C 座 2 楼小红书公司,小红书 REDtech 青年技术沙龙诚邀广大高校青
今天是10月10日,虽然已经是上班的第三天,但今天才是真正的星期一。镶嵌劳力士iPhone14 Pro售价93万。
借着ACL2022一篇知识增强Tutorial的东风,我们来聊聊如何在预训练模型中融入知识。Tutorial分别针对NLU和NLG方向对一些经典方案进行了分类汇...
基于随机token MASK是Bert能实现双向上下文信息编码的核心。但是MASK策略本身存在一些问题
Bert通过双向LM处理语言理解问题,GPT则通过单向LM解决生成问题,那如果既想拥有BERT的双向理解能力,又想做生成嘞?成年人才不要做选择!这类需求,主要包...
在前两章中我们已经聊过对抗学习FGM,一致性正则Temporal等方案,主要通过约束模型对细微的样本扰动给出一致性的预测,推动决策边界更加平滑。这一章我们主要针...
上一章我们聊了聊通过一致性正则的半监督方案,使用大量的未标注样本来提升小样本模型的泛化能力。这一章我们结合FGSM,FGM,VAT看下如何使用对抗训练,以及对抗...
这一章我们不聊模型来聊聊数据,解决实际问题时90%的时间其实都是在和数据作斗争,于是无标注,弱标注,少标注,半标注对应的各类解决方案可谓是百花齐放。在第二章我们...
这一章我们来聊聊在中文领域都有哪些预训练模型的改良方案。Bert-WWM,MacBert,ChineseBert主要从3个方向在预训练中补充中文文本的信息:词粒...
这个系列我们用现实中经常碰到的小样本问题来串联半监督,文本对抗,文本增强等模型优化方案。小样本的核心在于如何在有限的标注样本上,最大化模型的泛化能力,让模型对u...