
- 相关博文
- 最新资讯
-
许多技术管理者都有这样的困惑,我们做技术管理的,写代码的时间越来越少,手越来越生疏,但是参与了更多的技术评审和技术决策,这似乎是件很矛盾的事情。因此,他们时常感到很焦虑,自己技术能力越来...
-
我们在开发的时候,经常要打印日志,有的时候会在一些代码的关键节点处进行日志输出。使用logback/log4j等原生的日志框架,在日志输出的时候可能会遇到一个问题,那就是在打印对象的时候要求对象必须重写toString方法,否则无法将该对象的参数打印出来。如代码 :log.info("req = {}", creditApplyRequest);日志输出:req = com.alibaba.fin.lgp.core.functions.credit.request.CreditApplyReques
-
Oracle中最常用的字符串类型可能就是varchar2了,但是一直以来,让人吐槽最多的,可能就是他的存储容量,12c之前,允许存储4000字节,请注意这的单位是字节,如果你按照非常规的字...
-
近期,在 ECMA 标准化组织的 TC39 技术委员会上,阿里巴巴前端标准化小组与淘系技术提出的 JavaScript 标准提案《Error Cause》进入了 Stage 3,将开始在 ...
-
大家好,我是煎鱼。自古应用程序均从 Hello World 开始,你我所写的 Go 语言亦然:import"fmt"funcmain(){fmt.Printl...
-
来自『央视新闻』 编辑 / 昱良9月18日,华为发布全球最快AI训练集群——Atlas 900。这款AI产品,取名自古希腊神话中的擎天巨神。它有什么特别之处?真能“擎天”...
-
点击上方“AI公园”,关注公众号,选择加“星标“或“置顶”因公众号更改了推送规则,记得读完点“在看”~下次AI公园的新文章就能及时出现在您的订阅列表中作者:MARCIN ZABŁOCKIM...
-
本文主要介绍如何用Python NumPy获取数组的值和分片,以及如何改变数组的维度。
-
文章目录Keras 模型Sequential 顺序模型Sequential 使用方法Model 模型Model 使用方法Keras 模型Keras提供的模型,其中分为两类:Sequential 顺序模型Model 类模型(使用函数式 API 的 Model 类模型)我们可以通过from tensorflow.keras import Sequential或者 from tensorflow.keras import Sequential来导入对应的模型。Sequential 顺序模型官方
-
近日,腾讯云和中国人民大学在数据库基础研究上有了进展,聚焦在“数据异常”领域,这是数据库可串行化理论体系中的重要概念。
-
本文将会分享近期发布的七大GitHub机器学习项目。这些项目广泛覆盖了机器学习的各个领域,包括自然语言处理(NLP)、计算机视觉、大数据等。最顶尖的Github机器学习项...
-
作者 | 马超出品 | CSDN(ID:CSDNnews)昨日,在英伟达的新品发布会大会上,英伟达 CEO 黄仁勋如期拿出了首款 CPU 芯片 Grace,剑指 AI 云计算,其实笔者在...
-
本文介绍了使用OpenCV-Python操作视频的方案,介绍了视频读取和写入类的构造方法,并提供了一个读取摄像头视频写入视频文件的方法,有助于大家理解OpenCV-Python的视频操作相关方法。
-
摘要:修电脑?格子衫?脱发?程序员被误解了怎么办?如何一句话向父母说明白你的工作?
-
《程序员》于 2000 年创刊,其理念为技术改变世界,创新驱动中国。2021 年,《程序员》2.0全新起航,首期以「开发者的黄金十年」为主题,以音视频、图文专栏等丰富的多媒体形式为载体,立足当下,放眼未来,为读者带来全方位的技术和产业解读。本文为《程序员》2.0 第一期内容,在 UNIX 开发者 Brian W. Kernighan 之后,我们采访到 Vue.js的作者尤雨溪,与其共谈精彩程序人生、共论顶级开源项目的成功之道。从复杂的 jQuery 插件化开发到模块化及组件化,现代前端技术在迭代.
-
本文将介绍由腾讯与欧洲顶级农业大学 WUR(荷兰瓦赫宁根大学)共同举办的第二届“国际智慧温室种植大赛”预赛情况。9月20日,腾讯与欧洲顶级农业大学 WUR(荷兰瓦赫宁根大...
-
本项目将依托于MNIST数据集,手把手实现图像数据集降维。
-
蓝桥杯填空题--手算秘籍
-
前言本文综合整理常用的神经网络,包括生物神经网络、人工神经网络、卷积神经网络、循环神经网络、生成对抗网络;参考了许多高校的课程、论文、博客和视频等。文章的结构是先进行概念了解,然后结合图片、结构图、一步一步详细讲解;大家要不看看?( •̀ ω •́ )y一、人工神经网络简介:人工神经网络(Artificial Neural Network, ANN),由人工神经元构成的网络,模拟人类的大脑;它模拟生物过程以反映人脑某些特征的计算结构。联系:人工神经元模拟生物神经元;人工神经网络模拟...
-
对话依旧出于昨天和班班的聚会。当时我们探讨了高校教育与选科的话题,她跟我说她跟我们分别之后的学习,发现了自己真正喜欢且擅长的领域,现在正在追梦。她说,要是当初高中的时候,有人告诉她这些,她可能就不会选那个专业,会直接选择适合自己的专业,也就不会等到现在才重返校园学习了。对话也出自齐锋学长和乐哥带我去见他们的朋友的聚会中,提起我的时候,有时候就会说我现在的机会是真的好(确实是真的好),以前要是有人跟他们说这些,他们会少走很多的弯路。感觉我是真的幸运,一路上得贵人相助。...
-
本文由『机器之心』授权转载参编辑 / 昱良链接:https://arxiv.org/pdf/1908.08847.pdf时尚电子商务平台通过搜索和个性化来简化服装购买。可...
-
由于当前stc8a8k单片机涨价飞起,因此,回到一开始的培训初衷,回到stc89c52单片机,作为入门。然后利用实验室的环境,整理10套stc8a8k的板子,作为加强练习,主要是学习内置PWM,内置AD的训练。后期然后从stm32出发,利用stm32f1或者stm32f4作为底子。(二年级必须进行学习)。新制定的stc89c52单片机开发板有一下功能;1/8个LED灯,训练点灯等2/5个独立按键;3/1个24C02,作为IIC练习;4、LCD1602屏幕;5、OLED屏幕。6、串口下载模块
-
一、前言哈喽,大家周末好,我是小董。昨晚的《校招分享会》你们去听了嘛?录播链接==>校招分享会。 感谢CSDN的各位工作人员给自己安排这样的一次直播,非常感谢!!! 另外,昨晚去看直播的小伙伴们,在此,我也要说一声抱歉,由于自己最近公司业务较忙,没有给大家准备太多的文档干货,之后一定会给大家补上的。二、昨晚分享会的主要内容①介绍自身经历 ②分享读书内容,如何从众多书中选出最适合的,避免在垃圾书上浪费太多时间。 ③如何选择学习方向,我该学什么?我在什么时间段该学什么? ④如何玩好牛客
-
一、简介1 CNN的应用领域CNN在以下几个领域均有不同程度的应用:图像处理领域(最主要运用领域) —— 图像识别和物体识别,图像标注,图像主题生成,图像内容生成,物体标注等。视频处理领域 —— 视频分类,视频标准,视频预测等自然语言处理(NLP)领域 —— 对话生成,文本生成,机器翻译等其它方面 —— 机器人控制,游戏,参数控制等2 CNN的网络结构2.1 传统神经网络上图为传统的神经网络的结构, 它是一种全连接的结构, 这也就造成了参数训练的难度加深. 还有BP求解中的可能出现的梯
-
与传统的文本摘要任务相比,商品摘要任务更具挑战性。一方面,商品给顾客的第一印象来自该商品的外观,这对顾客的购买决策有着至关重要的影响。因此,商品摘要系统必须能够充分挖掘商品视觉信息,反映商品的外观特色。另一方面,不同的产品有不同的卖点。例如,紧凑型冰箱的优点是节省空间,而环保型冰箱的优点是节能。因此,商品摘要应该反映商品最独特的方面,从而最大限度地促成消费者的购买。
-
170亿参数加持,微软发布史上最大Transformer模型
BERT和GPT-2之类的深度学习语言模型(language model, LM)有数十亿的参数,互联网上几乎所有的文本都已经参与了该模型的训练,它们提升了几乎所有自然语言处理(NLP)任务的技术水平,包括问题解答、对话机器人和文档理解等。
-
围绕语音语言,微信AI首席科学家牛成公布了最新开放方案,并重磅宣布全面开放各层次 NLP 能力。具体说来,微信 AI 迈出了“三大步”:以硬件合作为核心的智言小微硬件开放平台 2.0 正式亮相;公开以对话开放能力为核心的微信对话开放平台;全面开放以自然语言处理能力为核心的 NLP 基础技术平台。
-
对自然语音处理(NLP)领域而言,2019年是令人印象深刻的一年,本文将回顾2019年NLP和机器学习领域的重要事件。内容 主要集中于 NLP 领域,但也会包括一些与 AI 有关的有趣故事,包括新发布模型、工程成果、年度报告以及学习资源等。
-
一般来说,基于树形结构的模型在Kaggle竞赛中是表现最好的,而其它的模型可以用于融合模型。对于计算机视觉领域的挑战,CNNs (Convolutional Neural Network, 卷积神经网络)是最适合不过的。而对于NLP(Natural Language Processing,自然语言处理),LSTMs或GRUs是最好的选择。下面是一个不完全模型细目清单,同时列出了每个模型的一些优缺点。
-
要搞清楚自然语言理解难在哪儿,先看自然语言理解任务的本质是什么。作为人工智能关注的三大信息类型(语音、视觉、语言)之一,自然语言文本是典型的无结构数据,由语言符号(如汉字)序列构成。要实现对自然语言的表意的理解,需要建立对该无结构文本背后的语义结构的预测。
-
BERT之后,新的预训练语言模型XLnet、RoBERTa、ERNIE不断推出,这次,华为诺亚方舟实验室开源了基于BERT的中文预训练语言模型NEZHA(哪吒),寓意模型能像哪吒那样三头六臂、大力出奇迹,可以处理很多不同的自然语言任务。
-
12月10日,百度ERNIE在自然语言处理领域权威数据集GLUE中登顶榜首,以9个任务平均得分首次突破90大关刷新该榜单历史,其表现超越微软MT-DNN-SMART, 谷歌T5、ALBERT等一众顶级预训练模型。
-
清华大学教授、智源首席科学家孙茂松,畅谈当前人工智能技术与产业应用发展现状和存在的问题,包括自然语言处理研究面临的瓶颈、神经网络黑箱、常识、大数据与知识等,并提出了他对于改进 AI 实用性的看法和建议。本文将提炼孙茂松教授在访谈中表达的主要观点,供读者交流。
-
2019 年 10 月 31日,在北京举行的智源大会上,清华大学教授、智源首席科学家孙茂松接受了媒体采访,畅谈当前人工智能技术与产业应用发展现状和存在的问题,包括自然语言处理研究面临的瓶颈、神经网络黑箱、常识、大数据与知识等,并提出了他对于改进 AI 实用性的看法和建议。本文将提炼孙茂松教授在访谈中表达的主要观点,供读者交流。
-
10月,Google 在《Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer》这篇论文中提出了一个最新的预训练模型 T5(Text-To-Text Transfer Transformer),其参数量达到了 110 亿,完爆 Bert Large 模型,且在多项 NLP 任务中达到 SOTA 性能。有人说,这是一种将探索迁移学习能力边界的模型,它的意义究竟是什么?潜力还有多大?
-
最近,一个名字相当接地气的“狗屁不通”文章生成器(BullshitGenerator)火了,截至目前 GitHub 上 Star 数已超过 3200,还上了微博热搜。这个神器可以生成各种各样奇葩文章,比如领导专用“彩虹屁”万字长文。只有你想不到,没有这个神器写不成的文章。但是,生成的文章确实也是“狗屁不通”。这次我们就来解读一下,这个生成器是怎么运行的,以此为例,延展探讨一下文本生成未来还有哪些改进的方向。
-
最近,深度学习在自然语言处理领域(NLP)取得了很大的进步。随着诸如 Attention 和 Transformers 之类新发明的出现,BERT 和 XLNet 一次次取得进步,使得文本情感识别之类的等任务变得更加容易。本文将介绍一种新的方法,该方法使用图模型在对话中进行情感识别。
-
京东集团副总裁兼人工智能事业部总裁、智源-京东联合实验室主任周伯文,斯坦福人工智能实验室负责人(SAIL)Christopher Manning,以《Next NLP Frontier After Deep Learning: A Conversation about Conversation and Beyond》为题,从语义、语境和知识,当前NLP的典型技术或应用以及以任务为导向的多轮和多模态对话三大部分出发,对下一个自然语言处理最前沿的课题展开尖峰对话。
-
“劣币驱逐良币”的现象在很多领域都存在,包括自然语言研究领域。很多研究人员为了更容易让研究成果成功发表或获得奖项,往往会选择使用更容易走捷径的训练数据集,尽管这些数据集并不一定是最好和最合适的。本文中,阿伯丁大学计算机科学系教授和 Arria NLG 首席科学家 Ehud Reiter 就以自己的亲身经历为例,讨论了他对于这个话题的看法。
-
刘群:华为诺亚方舟NLP预训练模型工作的研究与应用 | AI ProCon 2019
预训练语言模型对自然语言处理领域产生了非常大的影响,在近期由CSDN主办的 AI ProCon 2019 上,自然语言处理技术专题邀请到了华为诺亚方舟实验首席科学家刘群分享了华为诺亚方舟实验室在预训练语言模型研究与应用。他从以下三个方面介绍了他们的工作:一是刚发布的中文预训练语言模型——哪吒;二是实体增强预训练语言模型——ERINE;三是预训练语言模型——乐府。
-
这是自然语言处理业界中长久以来悬而未决的一个命题——如何合理地表示语言的内在意义?对大规模语料的暴力拟合是不是真的能让模型理解语言的语义呢?
-
自然语言处理的发展进化带来了新的热潮与研究问题,研究者们在许多不同的任务中推动机器推理(Machine Reasoning)能力的提升。基于一系列领先的科研成果,微软亚洲研究院自然语言计算组将陆续推出一组文章,介绍机器推理在常识问答、事实检测、自然语言推理、视觉常识推理、视觉问答、文档级问答、多轮语义分析和问答等任务上的最新方法和进展。
-
在之前写过的《NLP的游戏规则从此改写?从word2vec, ELMo到BERT》一文中,介绍了从word2vec到ELMo再到BERT的发展路径。而在BERT出现之后的这大半年的时间里,模型预训练的方法又被Google、Facebook、微软、百度、OpenAI等极少数几个玩得起游戏的核心玩家反复迭代了若干版,一次次的刷新我们这些吃瓜群众的案板上的瓜。
活动
-
2021.03.31
-
2020.12.25
-
2020.06.02
-
2020.06.12
-
2020.07.04
精品推荐
热门推荐
学习资源
关于我们

关注「AI科技大本营」
转载 & 投稿(微信):1092722531
商务合作(微信):15222814505