服务热线

0750-33113349
网站导航
主营产品:
技术文章
当前位置:主页 > 技术文章 >

AIR040丨加拿大皇家学院院士李明:深度学习在机器人问答中的应用

时间:2021-07-23 00:32 点击次数:
 本文摘要:聊天机器人怎么办?罕见的方法之一是深入自学,利用信息论,让机器人如何聊天,如何对待系统。利用深度自学的方式现已广泛应用,第二种方式现在应用少,还处于探索阶段。在世界人工智能和机器人峰会上,加拿大皇家学院院士、滑铁卢大学教授、ACM、IEEEFellow李明提到,利用深入自学的ContextModel实现聊天机器人,该机器人在对话中提问的问题过于笼统,现在必须解决问题的产品问题更加明确。

亚博网站有保障的

聊天机器人怎么办?罕见的方法之一是深入自学,利用信息论,让机器人如何聊天,如何对待系统。利用深度自学的方式现已广泛应用,第二种方式现在应用少,还处于探索阶段。在世界人工智能和机器人峰会上,加拿大皇家学院院士、滑铁卢大学教授、ACM、IEEEFellow李明提到,利用深入自学的ContextModel实现聊天机器人,该机器人在对话中提问的问题过于笼统,现在必须解决问题的产品问题更加明确。因此,李明和他的研究团队在此基础上特别是CNN代码器,给机器人以上下文的主题,开展数亿对的解说训练,最后训练40个,问题非常明确,精度在80%以上。

其工作方式是重复终端的两个Contetfodel,通过不同的连接,将CNN的分类结果输出到RNN,更加正确地解读问题,提出正确的问题。Siri作为背后的自然语言处理所支持的应用,现在还没有问题。用户问Siri鱼不吃什么?Siri内部的系统提取了鱼和不吃两个关键词,解读了用户的意图是想吃海鲜,所以问了结果列出了很多海鲜馆。如果没有必要深入自学转用模板就不会频繁出现问题,模板的灵活性好,可以问今天的天气怎么样,但是今天的天气怎么样?最近李明进行了研究,检查了细胞中的物质有多少。

过程是再次给予细胞,消灭细胞,分离,分离后取出黑点,用质谱摇晃后分解频谱,该频谱是其质谱,根据质谱李明写出非常简单的CNN模型,开通LSTM完成检查。在这种情况下,由于噪音问题,深刻的自学本身没有工作,而且要动态计划,通过无数的CNN,最后要动态计划解决问题。

解说机器人中有很多技术挑战,有助于反馈系统。阿尔法犬的反馈系统,通俗地说,在对局下获胜的话会减半,相反会减半。与阿尔法犬相比,系统的胜负非常简单,聊天和解说不能使用非常简单的对与错、胜利和胜利系统,因此这里必须有限度系统。

李明明确提出了一个测量系统的概念,基于信息论的测量系统,他们必须测量两个句子的相似性,一个问题和一个答案的相似性,最后找出两者的语义距离。虽然语义距离不能计算,但语义可以超过类似,类似的构建方法是传输,通过传输测量语言的类似性。李明从另几个角度利用深度自学解决问题的自然语言问题,为研究者们取得新的视角。

以下是李明演说国史:大家好!我们有一家创业公司,叫薄语,我们可以聊天机器人。今天我不会向大家说明我们的聊天机器人。大家可以用微波信号关注薄语豆,需要和它说话。实体机器人是我们聊天机器人的着陆方式,但这不是我们的主要产品。

聊天平台是怎么做到的?我们在这个方向已经深耕了将近十年,公司正式成立了两三年,共有50多人。不做别的事,就做一件事。

今天会场上很多人谈论聊天这个项目,很少有很多精彩的报告。我想说明自己的聊天机器人平台。我把它分成两个主题。

一个是聊天机器人怎么办,一个是深度自学,另一个是信息论,即怎么聊天,怎么做系统。第一个主题是大家已经做了很多,第二个主题是新的,有实验性,有探索性。许多人告诉我们学是所谓的Contextmodel,我们用这个技术开发的产品问题太笼统了,我们必须使问题更加明确。因此,我们特别是CNNEncoder,提供以下主题。

需要数亿对的解说训练,训练了40个。并且,如果不把想问的主题告诉网络的话,网络就不会使用更有针对性的问题。

我们训练后,其精度约为80%。c是终端两个Contet的Model,通过不同的连接,将CNN的分类结果输出到RNN,更加正确地解释意思,提出正确的问题。举个例子,让我们看看第一个。

第一个是道铁达尼号是谁主演的,输入的非常笼统,没问题。只有中国话,没什么用,问了很多人。

但是,有了主题,那就是正确的演员的名字。还有第二个问题。没有这个主题的时候,库里和詹姆斯问谁是MVP,说要看情况。

有了这个主题,那个问题是詹姆斯,这是主题输出的重要性。深度自学是如何协助自然语言解读的,推荐代表性的例子,听Siri,Siri用很多关键词处理,如果回答鱼不吃什么的话?指出有鱼,不吃,同意吃海鲜,告诉他很多海鲜馆是不可靠的。然而,你也可以给出模板。如果你不深入自学,给出模板是不可靠的。

刚才,有一个艾克的例子,艾克可以给出模板。与模板给出相比,它非常不灵活。

你可以问今天的天气是什么。如果你说今天的天气是什么,它就敢,灵活性非常差。

大家看这个,这是训练后做的,我怯懦怎么办?听说睡觉,有点怯懦怎么办?多喝水,我x有点怯懦怎么办?多喝水,我瞎加字,多喝水,我北京有点怯怎么办?喝王老吉,蝴蝶,我北京有点怯懦怎么办?还是说喝点水。现在我把胆怯的字换成了饥饿的字。

关于字的差异,蝴蝶说北京有点饱了怎么办中国,机器说不吃,我又把饱了的字删掉了。蝴蝶说在北京怎么办中国,有那个问题,北京。因此,深刻的自学解决了很多问题,虽然不是说解读了这个词的意思,但是看起来很正确。

我再推荐一个非常简单的例子。深度自学在有数据的地方,在有标志性的地方非常好。

生物信息血也很好。最近我们工作了。生物信息血是我必须在细胞中检查某个数量,或者是否。

那么我该怎么办呢?再给一个细胞,消灭细胞分离,分离后出现几个黑点,摇动质量谱,摇动质量谱,摇动质量谱,摇动质量谱,摇动质量谱,摇动质量谱,摇动质量谱因此,我写了一个非常简单的模型,即CNN,后端连接LSTM,深度自学往往明显不合适。在这种情况下,深度自学几乎不工作。

噪音很多,必须制定所谓的动态计划。我们使用了无数的CNN,用动态计划解决了问题。当然,这只是一个非常简单的意见和图片。

以前科学院做了比较,这几乎不公平,但朴素可以考虑。薄言豆豆,这个问题用了一千个微软公司发现的问题。

这是2015年公开发表的数据,他们作为测试聊天机器人,我说不公平是因为这些问题只是聊天的问题,因为是QA的问题,所以对图灵机器人来说是公平的,因为它实现了这一点,所以外出也做到了这一点,小I机器人也做到了这一点,但是对小冰和百度的秘密不公平但是,如果你想聊天,你可以问任何问题。你不能胡说八道。人们会回答你的问题。

你必须问很长时间。因此,科学知识是最重要的,科学知识是力量。

我想谈谈下一个问题。阿尔法狗做得很好,对局赢了就减半,输了就减半,这有很长的反馈系统。聊天,一句话说正确的错误,需要正确的测量系统,最近我们需要正确的测量系统,我们有以信息论为基础的测量系统,这就是LSTM相似性,现在我们需要测量什么?两个句子的相似性或一个问题和一个答案的相似性,我要找这些东西的语义距离,这两个词的语义距离是多少,现在问题是这样的,问题是什么语义距离,语义距离没有定义就不能计算,没有人告诉我什么。

我们明确提出了语义距离不告诉什么的新理论,我们用什么来代替。我可以证明这件事,语义距离没有定义,不能计算,信息距离有距离,不能计算,但可以接近。你是怎么接近的?就是传输。但我可以证明以下事项,数学严格的证明。

语义距离的描述,一个接近,无论你接近什么,只要你能计算,我的信息距离一定比你的距离好。不需要别的东西,语义距离不是没有定义吗?忘了,不要定义。

我们用信息的距离。信息的距离只是让你传输,传输结束后就像语义的距离。当然,无论怎么传输我都不告诉你,这是可能的。因为我们已经开始尝试这件事,通过传输测量这件事,两个语言的近似性。

原始文章允许禁止发布。下一篇文章发表了注意事项。


本文关键词:亚博APP买球,AIR040,丨,加拿大,皇家,学院,院士,李明,深度

本文来源:亚博网站信誉有保障的-www.doksh.com

Copyright © 2009-2021 www.doksh.com. 亚博网站信誉有保障的科技 版权所有  备案号:ICP备74724720号-6

地址:湖南省岳阳市朔城区建明大楼92号 电话:0750-33113349 邮箱:admin@doksh.com

关注我们

服务热线

0750-33113349

扫一扫,关注我们