• 相关博文
  • 最新资讯
加载中...
  • 机器学习项目模板:ML项目的6个基本步骤

    每个机器学习项目都有自己独特的形式。对于每个项目,都可以遵循一组预定义的步骤。尽管没有严格的流程,但是可以提出一个通用模板。

    2020.04.08 0
  • “Hey Siri” 背后的黑科技大揭秘!

    “Hey Siri!”作为预装语音助手Siri的附加功能,于2014年9月在iOS 8中发布。然而,在iOS 9(2015年9月)它升级了,只允许被用来识别用户的个性化语音。

    2020.04.08 0
  • 半小时训练亿级规模知识图谱,亚马逊AI开源知识图谱嵌入表示框架DGL-KE

    近日,亚马逊 AI 团队继 DGL 之后,又开源了一款专门针对大规模知识图谱嵌入表示的新训练框架 DGL-KE,旨在能让研究人员和工业界用户方便、快速地在大规模知识图谱数据集上进行机器学习训练任务。

    2020.04.07 0
  • RANet : 分辨率自适应网络效果和性能的best trade-off | CVPR 2020

    深度CNN带来了性能提升的同时也带来了过高的计算量,许多研究放在了如何进行网络加速上面,其中比较直接的是根据样本难易程度进行自动调整的自适应网络。基于对自适应网络的研究,论文提出了自适应网络RANet(Resolution Adaptive Network),思想如图1所示,网络包含多个不同输入分辨率和深度子网,样本先从最小的子网开始识别,若结果满足条件则退出,否则继续使用更大的子网进行识别,子网的特征不是独有的,下一级别的子网会融合上一级别的子网特征,从实验来看,论文在效果和性能上取得了很不错的trade-off。

    CNN
    2020.04.07 0
  • 首次揭秘!大麦如何应对超大规模高性能选座抢票?

    选座类型抢票的特点是“选”,由于“选”的可视化以 及超大场馆在数据量上对大麦是很大的挑战。本文通过服务端和前端上的一些解决方案来探讨 如何支撑超大规模场馆的高性能选座,通过本文的一些技术方案希望可以对读者在一些高并发 实践中提供帮助。

    2020.04.07 0
  • 使用大batch优化深度学习:训练BERT仅需76分钟 | ICLR 2020

    作者的实验结果证明了LAMB在各种任务(例如BERT和RseNet-50训练)中可以表现的非常出色,且仅需调整少量的超参数。重要的是,对于训练BERT,本文的优化程序可以使用非常大的32868 batch大小,而且不会降低性能。通过将批处理大小增加到TPUv3 Pod的内存限制,BERT的训练时间可以从3天减少到只有76分钟(可以见后面的表1)。LAMB的实现已经开源。

    2020.04.07 0
  • 技术大佬的肺腑之言:“不要为了 AI 而 AI”! | 刷新 CTO

    CSDN 创始人&董事长、极客帮创投创始合伙人蒋涛,微软(中国) 首席技术官韦青,以及微软(中国) 首席架构师韩凯(Chris Han),共同探讨2020年人工智能发展与落地应用,为大家指引方向,期待大家更好地思考和探索AI新方向。

    2020.04.03 0
  • 京东商城背后的AI技术能力揭秘 - 基于关键词自动生成摘要

    与传统的文本摘要任务相比,商品摘要任务更具挑战性。一方面,商品给顾客的第一印象来自该商品的外观,这对顾客的购买决策有着至关重要的影响。因此,商品摘要系统必须能够充分挖掘商品视觉信息,反映商品的外观特色。另一方面,不同的产品有不同的卖点。例如,紧凑型冰箱的优点是节省空间,而环保型冰箱的优点是节能。因此,商品摘要应该反映商品最独特的方面,从而最大限度地促成消费者的购买。

  • 林轩田机器学习基石课程学习笔记1 -- The Learning Problem

    什么是“学习”?学习就是人类通过观察、积累经验,掌握某项技能或能力。就好像我们从小学习识别字母、认识汉字,就是学习的过程。而机器学习(Machine Learning),顾名思义,就是让机器(计算机)也能向人类一样,通过观察大量的数据和训练,发现事物规律,获得某种分析问题、解决问题的能力。

    2020.04.03 0
  • “死扛”高并发大流量,大麦抢票的技术涅槃之路

    大麦网主要的业务范围为演唱会、音乐会、体育赛事、话剧、展销会、亲子活动等现场类 的票务业务,其业务链条涵盖从 B 端生产、C 端销售、现场换验的全套流程。大麦网一类典型项目是稀缺的火爆 IP 项目,如演唱会、游戏体育赛事,这类票务隐含了时间、空间的特殊限制属性,是需要抢的。大麦抢票是演出行业的双 11,涉及场景复杂、系统较多、链路较长,抢票 保障尤为重要。

    2020.04.02 0
  • 用于单图像超分辨率的对偶回归网络,达到最新SOTA | CVPR 2020

    本文提出了一种对偶回归方法,它通过引入对LR数据的附加约束来减少函数的解空间。 具体而言,除了学习从LR到HR图像的映射外,本文方法还学习了另外的对偶回归映射,用于估计下采样的内核并重建LR图像,从而形成了一个闭环,可以提供额外的监督。

  • 深度残差收缩网络:借助注意力机制实现特征的软阈值化

    本文解读了一种新的深度注意力算法,即深度残差收缩网络(Deep Residual Shrinkage Network)。

    2020.04.02 0
  • 154 万 AI 开发者用数据告诉你,中国 AI 如何才能弯道超车?| 中国 AI 应用开发者报告...

    为了更好地了解其背后技术趋势与人才走向,并帮助所有有志于 AI 的开发者成长及就业,CSDN 联合职场社交平台脉脉共同出品,重磅发布《中国 AI 应用开发者报告》,在此第一篇章中,特聚焦分析中国 AI 开发者画像特征、技术及行业增长、地域分布等,旨在帮助更多的开发者及相关行业深入了解 AI 技术及应用发展趋势。

    2020.04.01 0
  • 数据库设计的10个最佳实践

    数据库是应用及计算机的核心元素,负责存储运行软件应用所需的一切重要数据。为了保障应用正常运行,总有一个甚至多个数据库在默默运作。我们可以把数据库视为信息仓库,以结构化的方式存储了大量的相关信息,并合理分类,方便搜索及使用。

    2020.04.01 0
  • 自动编码器是什么?教你如何使用自动编码器增强模糊图像

    本文将介绍什么是自动编码器,以及工作原理。然后,我们会给一个实际案例——基于Python中的自动编码器提高图像的分辨率。

    2020.04.01 0
  • 让AI训练AI,阿里和浙大的“AI训练师助手”是这样炼成的

    目前实现这一目标最流行的方法是迁移学习。浙江大学和阿里安全发现,两个预训练深度模型所提取的特征之间的迁移能力可由它们对应的深度归因图谱之间的相似性来衡量。相似程度越高,从不同的预训练深度模型中获得的特征相关性就越大,特征的相互迁移能力也就越强。而且,“AI训练师助手”还知道从什么模型迁移知识,用模型的哪个部分迁移能最好地完成任务。也就是说,他们发现了让小白模型向AI深度模型学习的高效学习方法。

    2020.03.31 0
  • 1分钟售出5万张票!电影节抢票技术揭秘

    本文主要围绕售票环节,讲述阿里文娱的云智系统是如何支撑高流量并发,保障系统的稳定,不出现重卖等实现方案背后的技术。

    2020.03.31 0
  • 2020,国产AI开源框架“亮剑”TensorFlow、PyTorch

    深度学习开源框架领域的一个既定事实是,TensorFlow、PyTorch基本两分天下,从技术能力到生态建设,它们能给AI落地提供有力支撑,可以满足大部分企业在其中构建自己的AI应用。反观国产AI开源框架,即便百度PaddlePaddle已开源四年,腾讯Angel、阿里X-DeepLearning等框架也相继开源,但从市场影响力和使用规模来看,还难与前两者抗衡。

    2020.03.30 0
  • 从零开始构建:使用CNN和TensorFlow进行人脸特征检测

    人脸检测系统在当今世界中具有巨大的用途,这个系统要求安全性,可访问性和趣味性!今天,我们将建立一个可以在脸上绘制15个关键点的模型。

    2020.03.30 0
  • 基于轮廓调整的SOTA实例分割方法,速度达32.3fps | CVPR 2020

    实例分割是许多计算机视觉任务中的重要手段,目前大多数的算法都采用在给定的bbox中进行pixel-wise分割的方法。受snake算法和Curve-GCN的启发,论文采用基于轮廓的逐步调整策略,提出了Deep snake算法进行实时实例分割,该算法将初始轮廓逐渐优化为目标的边界,如图1所示,达到很好的性能且依然保持很高的实时性(32.3fps) 。

    2020.03.30 0
每页显示 共681条数据 < 1 2 3 4 5 6 7 8 9 10 ...35 >      到第 GO