排列五开奖号码 > 庞蒂克 >

CNN和RNN之间有什么区别?

发布日期:2019-01-17 23:52来源:未知

  由大卫·哈塞尔霍夫(David Hasselhoff)主演的1982年电视连续剧“ 骑士骑士 ”(Knight Rider)和一部未来主义的打击犯罪的排列五跨度走势图南方双彩火鸟(Pontiac Firebird)是预言。自驾车,会说话的汽车还提供好莱坞的图像和课程。如果今天编写脚本,哈塞尔霍夫的AI汽车,被称为KITT,将以卷积神经网络和循环神经网络的深度学习为特色来观察,听取和说话。这是因为有线电视新闻网是目前机器使用的图像处理器 - 眼睛 - 用于识别物体。而RNN是数学引擎 - 耳朵和嘴巴 - 用于解析语言模式。从80年代开始快速发展,CNN是当今自动驾驶汽车,石油勘探和聚变能研究的目光。它们可以帮助更快地在医学成像中发现疾病并挽救生命。今天,“霍夫” - 像数十亿其他人一样 - 即使在不知情的情况下,也可以从CNN上获益,在Facebook上发布朋友的照片,享受其名称的自动标记功能,增加他的社交润滑。因此,将CNN从他的火鸟身上移开,它不再拥有计算机化的眼睛来驱动自己,成为另一个没有嘶嘶作响的行动道具。从哈塞尔霍夫的时尚,黑色,自主的Firebird搭档中拉出了RNN,然后那个聪明的计算机化的声音在他的单身汉中嘲笑。更不用说,抛弃了KITT对法语和西班牙语的指挥。毫无疑问,RNN正在加速基于语音的计算革命。它们是自然语言处理大脑,为亚马逊的Alexa,Google的助手和Apple的Siri提供耳朵和语音。它们为谷歌的自动填充功能提供了类似透视的魔力,可填充您的搜索查询。回到未来。此外,CNN和RNN今天制造这样的汽车不仅仅是Tinseltown的幻想。汽车制造商现在正在快速开发明天的KITT车型。今天的自动驾驶汽车可以在模拟之前进行测试,甚至可以在上路之前进行测试。这允许开发人员测试并验证车辆的眼睛能够看到超人的感知水平。由于CNN和RNN,所有类型的AI驱动的机器都像我们的眼睛和耳朵一样被驱动。人工智能的大部分应用都是通过深度神经网络的数十年的进步以及从GPU处理大量数据的高性能计算的跨越而实现的。CNN简史我们经常被问到如何到达这里。早在自动驾驶汽车出现之前,人类大脑神经元之间的生物学联系就是研究一般人工神经网络的研究人员的灵感。CNN的研究人员遵循同样的思路。CNN的一个开创性时刻在1998年出现。那一年,Yann LeCun和合着者LéonBottou,Yoshua Bengio和Patrick Haffner发表了有影响力的论文Gradient-based Learning Applied to Document Recognition。本文描述了这些学习算法如何帮助用最少的预处理对手写字母中的模式进行分类。对CNN的研究证明了在阅读银行支票时具有破纪录的准确性,并且现已广泛实施以便在商业上进行处理。它为人工智能的承诺带来了巨大的希望。LeCun是??该论文的首席研究员,于2003年成为纽约大学的教授,后来在2018年加入Facebook,成为社交网络的首席人工智能科学家。下一个突破时刻是2012年。那时多伦多大学的研究人员Alex Krizhevsky,Ilya Sutskever和Geoffrey Hinton发表了具有深度卷积神经网络的开创性论文ImageNet分类。该研究提出了物体识别的状态。三人组训练了一个深度卷积神经网络,对来自ImageNet大规模视觉识别挑战赛的120万张图像进行分类,赢得了创纪录的错误率降低。这引发了今天的现代AI热潮。CNNs 解释:狗还是小马?这是图像识别角色的一个例子。我们人类可以看到一个大丹犬,知道它很大,但它仍然是一只狗。电脑只看数字。他们怎么知道大丹犬不是小马?那么,像素的数值表示可以通过CNN的多个层来处理。许多大丹犬的特征可以通过这种方式识别出来以获得答案。现在,让我们深入了解CNN的内幕,了解更多技术层面的情况。CNN包括输入层(诸如由像素的数字表示的图像),一个或多个隐藏层和输出层。这些数学运算层有助于计算机一次一点地定义图像的细节,以最终 - 希望 - 识别特定物体或动物或任何目标。然而,他们经常会错过,特别是在训练初期。卷积层:在数学中,卷积是一种分组函数。在CNN中,卷积发生在两个矩阵(以列和行排列的矩形数组)之间,以形成第三矩阵作为输出。CNN在卷积层中使用这些卷积来过滤输入数据并查找信息。

  卷积层在CNN中完成大部分计算繁重的工作。它充当数学过滤器,帮助计算机查找图像边缘,暗区和亮区,颜色和其他细节,如高度,宽度和深度。通常有许多卷积层滤波器应用于图像。

  汇集层:汇集层通常夹在卷积层之间。它们用于减小卷积层创建的表示的大小,并减少内存需求,从而允许更多的卷积层。

  规范化层:规范化是一种用于改善神经网络性能和稳定性的技术。它通过将所有输入转换为平均值为零和方差为1来使每个层的输入更易于管理。可以将其视为规范数据。

  有关更深入的技术说明,请查看我们的开发者网站的CNN页面。CNN非常适合计算机视觉,但为它们提供足够的数据可以使它们在视频,语音,音乐和文本中都很有用。

  他们可以在这些隐藏层中招募一系列过滤器 - 或神经元 - ,这些过滤器都可以优化识别图像的效率。CNN被称为“前馈”神经网络,因为信息从一层馈送到下一层。或者,RNN与传统人工神经网络和CNN共享大部分相同的架构,除了它们具有可用作反馈回路的存储器。就像人类大脑一样,特别是在谈话中,更多的重量是信息的新近度以预测句子。这使得RNN适合于预测一系列单词中接下来的内容。此外,RNN可以被馈送不同长度的数据序列,而CNN具有固定的输入数据。RNN简史就像哈塞尔霍夫的后起之秀一样,自20世纪80年代以来,RNN一直存在。1982年,John Hopfield发明了Hopfield网络,一种早期的RNN。所谓的长期短期记忆(LSTM)网络,由RNN使用,是由Sepp Hochreiter和JürgenSchmidhuber在1997年发明的。到2007年左右,LSTM在语音识别方面实现了飞跃。2009年,RNN赢得了手写识别模式识别竞赛。到2014年,中国的百度搜索引擎击败了Switchboard Hub500语音识别标准,这是一个新的里程碑。RNN解释:什么是午餐?RNN是一个具有活动数据存储器的神经网络,称为LSTM,可以应用于一系列数据,以帮助猜测接下来会发生什么。使用RNN,一些层的输出被反馈到前一层的输入,从而创建反馈回路。这是一个简单的RNN的典型例子。这是为了跟踪在您的自助餐厅供应主菜的日期,据说每周在同一天运行同一菜的严格时间表。让我们想象它看起来像这样:周一的汉堡包,周二的炸玉米饼,周三的披萨,周四的寿司和周五的意大利面。使用RNN,如果输出“寿司”被反馈到网络中以确定星期五的菜肴,那么RNN将知道序列中的下一个主菜是意大利面(因为它已经知道有一个订单而周四的菜刚刚发生,所以星期五的菜是下一个)。另一个例子是句子:我跑了10英里,需要喝一杯______。人类可以根据过去的经验想出如何填补空白。由于RNN的记忆功能,可以预测接下来会发生什么,因为它可能有足够的训练记忆,类似这样的句子以“水”结束以完成答案。RNN应用程序不仅限于自然语言处理和语音识别。它们还用于语言翻译,股票预测和算法交易。神经图灵机(NTM)也是可以访问外部存储器的RNN。最后,所谓的双向RNN采用输入向量并在两个RNN上训练它。其中一个在常规RNN输入序列上接受训练,而另一个接受逆序。接下来连接或组合来自两个RNN的输出总而言之,CNN和RNN已经使应用程序,网络和机器世界的视觉和语音能力更强。没有这两个人工智能,我们的机器就会很无聊。例如,亚马逊的Alexa正在教我们如何与我们的厨房Echo“无线电”设备交谈,在与古怪的AI聊天时乞求各种新的疑问。自动驾驶汽车将很快即将到来,承诺在我们的生活中扮演主角。

宝来