• 相关博文
  • 最新资讯
加载中...
  • 清华周界详解《基于图神经网络的事实验证》 | 百万人学AI

    事实验证任务要求相关系统能够从大规模的文本知识库中抽取相关的证据(Evidence)并根据这些证据对给定的声明(Claim)给出事实性的判断。

    NLP
    2020.04.09 0
  • 从样本处理到决策模型,如何用NLP识别盗版资源?

    如何将人工智能技术运用到盗版监测中?

    NLP
    2020.03.12 0
  • 为什么说Transformer就是图神经网络?

    通过这篇文章,我想建立起图神经网络(GNNs)和Transformers之间的联系。具体来说,我将首先介绍NLP和GNN领域中模型架构的基本原理,然后使用公式和图表来阐述两者之间的联系,最后将讨论如何让两者协同运作来推动这方面的研究进展。

    2020.03.05 0
  • 170亿参数加持,微软发布史上最大Transformer模型

    BERT和GPT-2之类的深度学习语言模型(language model, LM)有数十亿的参数,互联网上几乎所有的文本都已经参与了该模型的训练,它们提升了几乎所有自然语言处理(NLP)任务的技术水平,包括问题解答、对话机器人和文档理解等。

    2020.02.13 0
  • 微信9年:张小龙指明方向,微信AI全面开放NLP能力

    围绕语音语言,微信AI首席科学家牛成公布了最新开放方案,并重磅宣布全面开放各层次 NLP 能力。具体说来,微信 AI 迈出了“三大步”:以硬件合作为核心的智言小微硬件开放平台 2.0 正式亮相;公开以对话开放能力为核心的微信对话开放平台;全面开放以自然语言处理能力为核心的 NLP 基础技术平台。

    2020.01.10 0
  • 2019,不可错过的NLP“高光时刻”

    对自然语音处理(NLP)领域而言,2019年是令人印象深刻的一年,本文将回顾2019年NLP和机器学习领域的重要事件。内容 主要集中于 NLP 领域,但也会包括一些与 AI 有关的有趣故事,包括新发布模型、工程成果、年度报告以及学习资源等。

  • 机器学习模型五花八门不知道怎么选?这份指南告诉你

    一般来说,基于树形结构的模型在Kaggle竞赛中是表现最好的,而其它的模型可以用于融合模型。对于计算机视觉领域的挑战,CNNs (Convolutional Neural Network, 卷积神经网络)是最适合不过的。而对于NLP(Natural Language Processing,自然语言处理),LSTMs或GRUs是最好的选择。下面是一个不完全模型细目清单,同时列出了每个模型的一些优缺点。

    2020.01.07 0
  • 时至今日,NLP怎么还这么难!

    要搞清楚自然语言理解难在哪儿,先看自然语言理解任务的本质是什么。作为人工智能关注的三大信息类型(语音、视觉、语言)之一,自然语言文本是典型的无结构数据,由语言符号(如汉字)序列构成。要实现对自然语言的表意的理解,需要建立对该无结构文本背后的语义结构的预测。

  • T5,一个探索迁移学习边界的模型

    10月,Google 在《Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer》这篇论文中提出了一个最新的预训练模型 T5(Text-To-Text Transfer Transformer),其参数量达到了 110 亿,完爆 Bert Large 模型,且在多项 NLP 任务中达到 SOTA 性能。有人说,这是一种将探索迁移学习能力边界的模型,它的意义究竟是什么?潜力还有多大?

  • 从词袋到Transfomer,NLP十年突破史

    通过 Kaggle 竞赛视角,观察 NLP 十年发展简史。

  • 情感识别难?图神经网络创新方法大幅提高性能

    最近,深度学习在自然语言处理领域(NLP)取得了很大的进步。随着诸如 Attention 和 Transformers 之类新发明的出现,BERT 和 XLNet 一次次取得进步,使得文本情感识别之类的等任务变得更加容易。本文将介绍一种新的方法,该方法使用图模型在对话中进行情感识别。

  • 周伯文对话斯坦福AI实验室负责人:下一个NLP前沿是什么?

    京东集团副总裁兼人工智能事业部总裁、智源-京东联合实验室主任周伯文,斯坦福人工智能实验室负责人(SAIL)Christopher Manning,以《Next NLP Frontier After Deep Learning: A Conversation about Conversation and Beyond》为题,从语义、语境和知识,当前NLP的典型技术或应用以及以任务为导向的多轮和多模态对话三大部分出发,对下一个自然语言处理最前沿的课题展开尖峰对话。

  • 学界观点 | NLP领域“劣币驱逐良币”,谁是罪魁祸首?

    “劣币驱逐良币”的现象在很多领域都存在,包括自然语言研究领域。很多研究人员为了更容易让研究成果成功发表或获得奖项,往往会选择使用更容易走捷径的训练数据集,尽管这些数据集并不一定是最好和最合适的。本文中,阿伯丁大学计算机科学系教授和 Arria NLG 首席科学家 Ehud Reiter 就以自己的亲身经历为例,讨论了他对于这个话题的看法。

  • 刘群:华为诺亚方舟NLP预训练模型工作的研究与应用 | AI ProCon 2019

    预训练语言模型对自然语言处理领域产生了非常大的影响,在近期由CSDN主办的 AI ProCon 2019 上,自然语言处理技术专题邀请到了华为诺亚方舟实验首席科学家刘群分享了华为诺亚方舟实验室在预训练语言模型研究与应用。他从以下三个方面介绍了他们的工作:一是刚发布的中文预训练语言模型——哪吒;二是实体增强预训练语言模型——ERINE;三是预训练语言模型——乐府。

  • 基于Go语义解析开源库FMR,“屠榜”模型外的NLP利器

    这是自然语言处理业界中长久以来悬而未决的一个命题——如何合理地表示语言的内在意义?对大规模语料的暴力拟合是不是真的能让模型理解语言的语义呢?

  • 机器推理系列文章概览:七大NLP任务最新方法与进展

    自然语言处理的发展进化带来了新的热潮与研究问题,研究者们在许多不同的任务中推动机器推理(Machine Reasoning)能力的提升。基于一系列领先的科研成果,微软亚洲研究院自然语言计算组将陆续推出一组文章,介绍机器推理在常识问答、事实检测、自然语言推理、视觉常识推理、视觉问答、文档级问答、多轮语义分析和问答等任务上的最新方法和进展。

  • NLP这两年:15个预训练模型对比分析与剖析

    在之前写过的《NLP的游戏规则从此改写?从word2vec, ELMo到BERT》一文中,介绍了从word2vec到ELMo再到BERT的发展路径。而在BERT出现之后的这大半年的时间里,模型预训练的方法又被Google、Facebook、微软、百度、OpenAI等极少数几个玩得起游戏的核心玩家反复迭代了若干版,一次次的刷新我们这些吃瓜群众的案板上的瓜。

  • 三两下实现NLP训练和预测,这四个框架你要知道

    大家通常基于 NLP 相关的深度学习框架编写自己的模型,如 OpenNMT、ParlAI 和 AllenNLP 等。借助这些框架,三两下就可以实现一个 NLP 相关基础任务的训练和预测。但是当我们需要对基础任务进行改动时,又被代码封装束缚,举步维艰。因此,本文主要针对于如何使用框架实现自定义模型,帮助大家快速了解框架的使用方法。

  • 技术新贵:RPA与NLP技术的结合与应用

    RPA 可以替我们工作吗?究竟什么是 RPA?RPA 存在的意义在哪里?RPA 带给开发者的机会又有哪些?

    2019.08.08 0
  • 不止最佳长论文,腾讯AI在ACL上还有这些NLP成果

    7月31日晚,自然语言处理领域最大顶会ACL 2019公布了今年的八个论文奖项,其中最佳长论文的获奖者被来自中国科学院大学、中国科学院计算技术研究所、腾讯 WeChat AI、华为诺亚方舟实验室、伍斯特理工学院等机构的联合论文所斩获。除了这篇最佳长论文,腾讯在今年的 ACL 会议上还有哪些研究论文被录取?今天,我们就用这篇文章为大家做介绍。

每页显示 共39条数据 < 1 2 >      到第 GO

关于我们

关注「AI科技大本营」​

转载 & 投稿(微信):1092722531

商务合作(微信):15222814505