• 相关博文
  • 最新资讯
加载中...
  • 清华周界详解《基于图神经网络的事实验证》 | 百万人学AI

    事实验证任务要求相关系统能够从大规模的文本知识库中抽取相关的证据(Evidence)并根据这些证据对给定的声明(Claim)给出事实性的判断。

    NLP
    2020-04-09 0
  • 用于单图像超分辨率的对偶回归网络,达到最新SOTA | CVPR 2020

    本文提出了一种对偶回归方法,它通过引入对LR数据的附加约束来减少函数的解空间。 具体而言,除了学习从LR到HR图像的映射外,本文方法还学习了另外的对偶回归映射,用于估计下采样的内核并重建LR图像,从而形成了一个闭环,可以提供额外的监督。

  • 信息保留的二值神经网络IR-Net,落地性能和实用性俱佳 | CVPR 2020

    在CVPR 2020上,商汤研究院链接与编译组和北京航空航天大学刘祥龙老师团队提出了一种旨在优化前后向传播中信息流的实用、高效的网络二值化新算法IR-Net。不同于以往二值神经网络大多关注量化误差方面,本文首次从统一信息的角度研究了二值网络的前向和后向传播过程,为网络二值化机制的研究提供了全新视角。同时,该工作首次在ARM设备上进行了先进二值化算法效率验证,显示了IR-Net部署时的优异性能和极高的实用性,有助于解决工业界关注的神经网络二值化落地的核心问题。

    2020-03-26 0
  • 脉冲神经网络在目标检测的首次尝试,性能堪比CNN | AAAI 2020

    论文打算使用DNN-to-SNN转化方法将SNN应用到更复杂的目标检测领域中,图片分类只需要选择分类就好,而目标检测则需要神经网络进行高度准确的数字预测,难很多。在深入分析后,论文实现YOLO的转换主要面临以下两个问题:

    2020-03-17 0
  • 为什么说Transformer就是图神经网络?

    通过这篇文章,我想建立起图神经网络(GNNs)和Transformers之间的联系。具体来说,我将首先介绍NLP和GNN领域中模型架构的基本原理,然后使用公式和图表来阐述两者之间的联系,最后将讨论如何让两者协同运作来推动这方面的研究进展。

    2020-03-05 0
  • CNN vs RNN vs ANN——3种神经网络分析模型,你pick谁?

    我还常常会见到另一个问题——神经网络需要强大的计算能力,那么当问题中只是存在一些细微差别时,使用神经网络真的值得吗?问题的答案很简单——值得!

    2020-02-21 0
  • 机器学习中的线性回归,你理解多少?

    机器学习中的线性回归是一种来源于经典统计学的有监督学习技术。然而,随着机器学习和深度学习的迅速兴起,因为线性(多层感知器)层的神经网络执行回归,线性回归的使用也日益激增。

    2020-02-21 0
  • 机器学习模型五花八门不知道怎么选?这份指南告诉你

    一般来说,基于树形结构的模型在Kaggle竞赛中是表现最好的,而其它的模型可以用于融合模型。对于计算机视觉领域的挑战,CNNs (Convolutional Neural Network, 卷积神经网络)是最适合不过的。而对于NLP(Natural Language Processing,自然语言处理),LSTMs或GRUs是最好的选择。下面是一个不完全模型细目清单,同时列出了每个模型的一些优缺点。

    2020-01-07 0
  • 从LeNet到GoogLeNet:逐层详解,看卷积神经网络的进化

    深度学习的兴起使卷积神经网络在计算机视觉方面大放异彩,本文将按时间和创新点顺序介绍一系列网络结构:LeNet、AlexNet、VGGNet、InceptionNet 与 ResNet。网络上大部分文章都只是草草讲述,本文小波仔仔细梳理,从问题的背景,网络结构,为什么设计这样的结构,参数数量各方面详细讲述CNN的进化之路。

    2020-01-06 0
  • 避免神经网络过拟合的5种技术(附链接) | CSDN博文精选

    当模型试着预测噪声较多的数据的趋势时,由于模型参数过多、过于复杂,就会导致过拟合。过拟合的模型通常是不精确的,因为这样的预测趋势并不会反映数据的真实情况。我们可以通过模型在已知的数据(训练集)中有好的预测结果,但在未知的数据(测试集)中较差的表现来判断是否存在过拟合。机器学习模型的目的是从训练集到该问题领域的任何数据集上均有泛化的较好表现,因为我们希望模型能够预测未知的数据。

    2019-12-26 0
  • 顶会论文:基于神经网络StarNet的行人轨迹交互预测算法

    美团正在积极研发无人配送机器人,建立无人配送开放平台,与产学研各方共建无人配送创新生态,希望能在一个场景相对简单、操作高度重复的物流配送中,提高物流配送效率。在此过程中,美团无人配送团队也取得了一些技术层面的突破,比如基于神经网络StarNet的行人轨迹交互预测算法,论文已发表在IROS 2019。IROS 的全称是IEEE/RSJ International Conference on Intelligent Robots and Systems,IEEE智能机器人与系统国际会议,它和ICRA、RSS并称为机器人领域三大国际顶会。

    2019-12-17 0
  • LatentFusion:华盛顿大学与英伟达联合提出6D姿态估计新方法

    在本文中,华盛顿大学和英伟达联合提出了一种新的用于未见过目标 6D姿态估计的框架。作者设计了一个端到端的神经网络,该网络使用少量目标的参考视角来重构目标的3D表示。使用学习到的3D表示,网络可以从任意视角对目标进行渲染。使用该神经网络渲染器,我们可以对输入图像的姿势直接进行优化。通过使用大量3D形状训练该网络进行重构和渲染,使该网络可以很好地推广到未见过的目标。作者还为未见的物体姿态估计提供了一个新的数据集-MOPED。并且最后在MOPED以及ModelNet数据集上评估了未见物体姿态估计方法的性能。

    2019-12-11 0
  • 如何用Neo4j和Scikit-Learn做机器学习任务?| 附超详细分步教程

    图算法不是一个新兴技术领域,在开源库中已经有很多功能强大的算法实现。近两年,业内的学者与科学家都在积极探索可以弥补深度学习不可解释性,无法进行因果推断的这个缺陷,而图神经网络(GNN)成为备受关注和期待的“宠儿”。随着学界和业界越来越关注GNN,各种新工作不断被提出,基于图神经网络的框架随之产生,如大家现在都已经熟悉的DGL,两大深度学习框架PyTorch和TensorFlow中也开始支持相应的功能,大家对图(Graph)、图计算、图数据库、图机器学习等研究的关注度越发高涨。

    2019-12-04 0
  • 高三学生发表AI论文,提出针对网络暴力问题的新模型AdaGCN

    近日,在清华大学举行的丘成桐中学科学奖半决赛落下帷幕,来自海内外的 72 支队伍获得了总决赛的入场券,北京师范大学附属实验中学的高三学生白行健,也在其中。他凭借一篇利用图卷积神经网络检测网络暴力的论文,在比赛中脱颖而出。长江后浪推前浪,瞧,00 后也要出道了。

  • 孙茂松:深度学习的红利我们享受得差不多了!

    清华大学教授、智源首席科学家孙茂松,畅谈当前人工智能技术与产业应用发展现状和存在的问题,包括自然语言处理研究面临的瓶颈、神经网络黑箱、常识、大数据与知识等,并提出了他对于改进 AI 实用性的看法和建议。本文将提炼孙茂松教授在访谈中表达的主要观点,供读者交流。

    2019-11-22 0
  • 孙茂松:深度学习的红利我们享受得差不多了!

    2019 年 10 月 31日,在北京举行的智源大会上,清华大学教授、智源首席科学家孙茂松接受了媒体采访,畅谈当前人工智能技术与产业应用发展现状和存在的问题,包括自然语言处理研究面临的瓶颈、神经网络黑箱、常识、大数据与知识等,并提出了他对于改进 AI 实用性的看法和建议。本文将提炼孙茂松教授在访谈中表达的主要观点,供读者交流。

    2019-11-21 0
  • 从基本组件到结构创新,67页论文解读深度卷积神经网络架构

    近期一篇CNN综述文章《A Survey of the Recent Architectures of Deep Convolutional Neural Networks 》发布,受到了大家的关注,今天作者对论文中的内容做了中文的解读,帮助大家全面了解CNN架构进展。

    CNN
    2019-11-20 0
  • 美还是丑?这有一个CNN开发的颜值评分器 | 实战

    在人工智能的发展越来越火热的今天,其中智能应用也在伴随着我们的生活,其中最具有代表性的便是图像识别,并且其中的应用比比皆是,如车站的人脸识别系统,交通的智能监控车牌号系统等等。而卷积神经网络作为图像识别的首选算法,对于图像的特征提取具有很好的效果,而TensorFlow作为Google的开源框架具有很好的结构化特征,而本篇文章将利用卷积神经网络算法对图像识别进行应用,开发出颜值评分器的功能。

    2019-11-12 0
  • AttoNets,一种新型的更快、更高效边缘计算神经网络

    在物体检测中的实验结果表明, 在使用更少的参数以及更低的计算花销的情况下,AttoNets 的效率与现有最优模型相当,并在准确率指标上大幅超越现有模型(与 MobileNet-V1相比,最小的 AttoNet 的准确率提升约 1.8%,使用的乘-加操作数和参数量减小了10倍)。另外,本文也在实例分割和物体探测应用中检测了 AttoNets 的效果,并发现与基于 ResNet-50 的 Mask R-Cnn 相比,通过使用基于 AttoNet的 Mask R-Cnn 网络,参数量和计算花销得到了大幅度降低(乘-加操作减少5倍,参数量减少2倍)。

  • 情感识别难?图神经网络创新方法大幅提高性能

    最近,深度学习在自然语言处理领域(NLP)取得了很大的进步。随着诸如 Attention 和 Transformers 之类新发明的出现,BERT 和 XLNet 一次次取得进步,使得文本情感识别之类的等任务变得更加容易。本文将介绍一种新的方法,该方法使用图模型在对话中进行情感识别。

每页显示 共60条数据 < 1 2 3 >      到第 GO