• 相关博文
  • 最新资讯
加载中...
  • 值得收藏!基于激光雷达数据的深度学习目标检测方法大合集(上)

    将全卷积网络技术移植到三维距离扫描数据检测任务。具体地,根据Velodyne 64E激光雷达的距离数据,将场景设置为车辆检测任务。在2D点图呈现数据,并使用单个2D端到端全卷积网络同时预测目标置信度和边框。通过设计的边框编码,使用2D卷积网络也能够预测完整的3D边框。

  • 经典再读 | NASNet:神经架构搜索网络在图像分类中的表现

    从 AutoML 到 NAS,都是企业和开发者的热门关注技术,以往我们也分享了很多相关内容。而这篇文章将对 Google Brain 发布的 NASNet 进行介绍。NASNet 在 CVPR2018 发表,至今已经有超过400次引用。

    2019.09.16 0
  • 卷积神经网络中十大拍案叫绝的操作

    CNN从2012年的AlexNet发展至今,科学家们发明出各种各样的CNN模型,一个比一个深,一个比一个准确,一个比一个轻量。下面会对近几年一些具有变革性的工作进行简单盘点,从这些充满革新性的工作中探讨日后的CNN变革方向。

    CNN
    2019.09.11 0
  • Dropout、梯度消失/爆炸、Adam优化算法,神经网络优化算法看这一篇就够了

    对于机器学习模型在训练数据集和测试数据集上的表现。如果你改变过实验中的模型结构或者超参数,你也许发现了:当模型在训练数据集上更准确时,它在测试数据集上却不⼀定更准确。这是为什么呢?

    2019.09.02 0
  • DeepMind提图像生成的递归神经网络DRAW,158行Python代码复现

    最近,谷歌 DeepMInd 发表论文( DRAW: A Recurrent Neural Network For Image Generation),提出了一个用于图像生成的递归神经网络,该系统大大提高了 MNIST 上生成模型的质量。为更加深入了解 DRAW,本文作者基于 Eric Jang 用 158 行 Python 代码实现该系统的思路,详细阐述了 DRAW 的概念、架构和优势等。

    2019.08.29 0
  • 1小时上手MaskRCNN·Keras开源实战 | 深度应用

    MaskRCNN 是何恺明基于以往的 faster rcnn 架构提出的新的卷积网络,一举完成了 object instance segmentation。该方法在有效地目标的同时完成了高质量的语义分割。文章的主要思路就是把原有的 Faster-RCNN 进行扩展,添加一个分支使用现有的检测对目标进行并行预测。

  • 里程碑式成果Faster RCNN复现难?我们试了一下 | 附完整代码

    2019年以来,除各AI大厂私有网络范围外,MaskRCNN,CascadeRCNN成为了支撑很多业务得以开展的基础,而以Faster RCNN为基础去复现其他的检测网络既省时又省力,也算得上是里程碑性成果了。因此本文主要以简洁易懂的文字复现了Resnet - Faster R-CNN。

    2019.08.20 0
  • 玩王者荣耀用不好英雄?两阶段算法帮你精准推荐精彩视频

    近日,腾讯三位工程师在arXiv上发表了论文,分析如何利用算法,针对热门手游“王者荣耀”游戏视频进行快速检测与识别,辨识视频中的角色(即“英雄”),以推荐视频给目标受众。为了提取游戏视频标签,需要在游戏视频中检测并识别其中的英雄及其阵营。本文提出了一种有效的两阶段算法,基于血条模板匹配方法检测视频中的所有英雄,再根据阵营分类,然后使用一个或多个深度卷积神经网络识别英雄姓名。实验证明了方法的效率与准确性。

    2019.08.08 0
  • 通俗易懂:图解10大CNN网络架构

    近年来,许多卷积神经网络( CNN )跃入眼帘,而随着其越来越深的深度,我们难以对某个 CNN 的结构有较明确的了解。因此本文精心选取了 10 个 CNN 体系结构的详细图解进行讲述。

    CNN
    2019.08.05 0
  • 谷歌新研究:基于数据共享的神经网络快速训练方法

    本文应用数据共享和并行流水线的思想,在一个数据读入和预处理周期内多次重复使用上一次读入的数据进行训练,有效降低模型达到相同效果所需的总 epoch 次数,在算法层面实现对训练过程的加速。

  • 基于GEMM实现的CNN底层算法被改?Google提出全新间接卷积算法

    来自谷歌的Peter Vajda在ECV2019中提出了一种全新的间接卷积算法,用于改进GEMM在实现卷积操作时存在的一些缺点,进而提升计算效率。

  • 入门必备 | 一文读懂神经架构搜索

    近期谷歌大脑团队发布了一项新研究:只靠神经网络架构搜索出的网络,不训练,不调参,就能直接执行任务。这样的网络叫做WANN,权重不可知神经网络。前一阵子在业内引起了不小轰动。

  • 入门学习 | 什么是图卷积网络?行为识别领域新星

    图卷积网络是近年来逐渐流行的一种神经网络结构。不同于只能用于网格结构(grid-based)数据的传统网络模型 LSTM 和 CNN,图卷积网络能够处理具有广义拓扑图结构的数据,并深入发掘其特征和规律,例如 PageRank 引用网络、社交网络、通信网络、蛋白质分子结构等一系列具有空间拓扑图结构的不规则数据。相比于一般的拓扑图而言,人体骨骼拓扑图具有更加良好的稳定性和不变性,因此从2018年开始,就有许多学者尝试将图卷积网络应用到基于人体骨骼的行为识别领域来,也取得了不错的成果。下面就让我们来深入了解一下什么是图卷积网络,以及它在行为识别领域的最新工作进展吧!

    2019.06.10 0
  • 速度提升270倍!微软和浙大联合推出全新语音合成系统FastSpeech

    目前,基于神经网络的端到端文本到语音合成技术发展迅速,但仍面临不少问题——合成速度慢、稳定性差、可控性缺乏等。为此,微软亚洲研究院机器学习组和微软(亚洲)互联网工程院语音团队联合浙江大学提出了一种基于Transformer的新型前馈网络FastSpeech,兼具快速、鲁棒、可控等特点。与自回归的Transformer TTS相比,FastSpeech将梅尔谱的生成速度提高了近270倍,将端到端语音合成速度提高了38倍,单GPU上的语音合成速度达到了实时语音速度的30倍。

    2019.06.05 0
  • 告别低分辨率网络,微软提出高分辨率深度神经网络HRNet | CVPR 2019

    对于视觉识别中的区域层次和像素层次问题,分类网络(如ResNet、VGGNet等)学到的表征分辨率比较低,在此基础上恢复的高分辨率表征空间区分度仍然不够强,使其在对空间精度敏感的任务上很难取得准确的预测结果。为此,微软亚洲研究院视觉计算组提出高分辨率深度神经网络(HRNet),对网络结构做了基础性的改变,由传统的串行连接高低分辨率卷积,改成并行连接高低分辨率卷积,通过全程保持高分辨率和对高低分辨率表征的多次信息交换来学到丰富的高分辨率表征,在多个数据集的人体姿态估计任务中取得了最佳的性能。

  • 四大指标超现有模型!少样本的无监督图像翻译效果逆天| 技术头条

    在已有的图像翻译研究中,模型需要使用大量的多类别图像数据,在一定程度上限制了模型的具体应用。本文提出了一种基于少样本目标类别图像的图像翻译模型,该模型在翻译准确度、内容保留程度、图像真实度和分布匹配度四个指标上都超越了现有模型的效果。

  • ICLR 2019最佳论文揭晓!NLP深度学习、神经网络压缩夺魁 | 技术头条

    ICLR 是深度学习领域的顶级会议,素有深度学习顶会 “无冕之王” 之称。今年的 ICLR 大会将于5月6日到5月9日在美国新奥尔良市举行,大会采用 OpenReview 的公开双盲评审机制,共接收了 1578 篇论文:其中 oral 论文  24 篇 (约占 1.5%),poster 论文共 476 篇 (占30.2%)。在这些录用的论文中,深度学习、强化学习和生成对抗网络 GANs 是最热门的三大研究方向。

  • 以合成假脸、假画闻名的GAN很成熟了?那这些问题呢?| 技术头条

    过去两年,生成对抗网络(GAN)取得了飞速、充分的发展,尤其是应用于图像合成技术的模型,快到几乎让人跟不上,每隔一段时间,我们肯能就能看到应用在不同任务中的新变体。本文介绍了关于 GAN 模型我们还要可以深入了解、探讨的一些问题。

  • 可视化深入理解损失函数与梯度下降 | 技术头条

    本文对梯度函数和损失函数间的关系进行了介绍,并通过可视化方式进行了详细展示。另外,作者对三种常见的损失函数和两种常用的激活函数也进行了介绍和可视化。

  • 重磅!Facebook更新PyTorch 1.1,打算跨GPU分割神经网络

    时隔半年不到,PyTorch 已经从之前的 1.0 升级到 1.1 版本了。刚刚,Facebook 在年度开发者大会 F8 上宣布正式发布 PyTorch 1.1 版本,这是对 PyTorch 1.0 的一次大的功能升级。

每页显示 共35条数据 < 1 2 >      到第 GO

关于我们

关注「AI科技大本营」​

转载 & 投稿(微信):1092722531

商务合作(微信):15222814505