期刊介绍
期刊导读
- 05/25陈根:铝离子电池,或成为下一代电池理想选择
- 05/25下一代人工智能长什么样?可感知和理解行为、
- 05/25下一代拿着智能驾驶车来玩,你会相信吗?专家
- 05/25《马自达CX-5曝光:下一代中型SUV配备后驱》
- 05/25下一代奥迪A4会不会变成纯电动车型?A4 e-tron已在
下一代人工智能长什么样?可感知和理解行为、
下一代人工智能是什么样的?
5月21日,英国初创公司Cognino AI联合创始人兼首席执行官普里蒂·帕迪(Priti Padhy)在第五届世界智能大会科技向善与人工智能教育论坛上通过视频表示,在下一波人工智能浪潮中,AI必须具有感知和理解行为的能力,利用人类理解语言的能力,将语言转化为知识,将数据转化成智能,并做出决策。人工智能还要具备可解释性,通过模型可以解释为什么人工智能会做出这种决策,就像人类可以解释为什么会做出某种决定,可以解释为什么会认为图上的动物是狗而不是狐狸。
Cognino AI总部位于英国伦敦,在美国、巴西和印度设有办事处,专注于自学习可解释的人工智能方面,目标是用“可解释的AI”赋能决策。
帕迪说,大约10年前,也就是2010年出现了神经网络,它在面部识别和图像识别方面非常准确。过去十多年我们在人工智能方面已经取得了巨大进步,“上一波人工智能的浪潮不仅强大,而且带来了真正的变革。”
但人工智能仍然面临很多挑战。帕迪给出一张孩子拿着牙刷的图片。“为什么我很快能意识到这是一个拿着牙刷的孩子,因为作为人类,我们关注周围的环境,仔细观察我们可以看到周围有牙刷和水槽,所以这个孩子很可能拿的是牙刷。”
“也就是说,当涉及到个别情况时,AI有时是不可靠的。”帕迪说,他最近测试了一款有趣的食品识别应用程序,然而程序却告诉他食物拼盘图片有99%的可能性是章鱼。
相对于十多年前出现的AI浪潮,帕迪认为,在下一次浪潮中,AI必须具有感知和理解行为的能力,利用人类理解语言的能力,将语言转化为知识,将数据转化成智能,并做出决策。“我认为这才是真正的人工智能,它可以根据上下文的情境理解并采取行动。”
另一方面,人工智能还要具备可解释性,“我们需要考虑什么是有效的,什么是可追溯的,什么是可审核的。”对于可解释的AI,帕迪说,也就是通过模型可以解释为什么人工智能会做出这种决策,“每当涉及到AI时,我们都能解释模型工作的原理。”
“我们关注人工智能如何观察、学习、推理、抽象、解释,并且可以交互学习,还有短期记忆和长期记忆,就像人类那样。这样就可以通过大量真实世界的数据进行推理,并且可以做出一个可以真正解释的决定。”
帕迪说,团队正在研究下一代人工智能。他们并不通过训练数十亿的狗的图片来预测图片上是一只狗,不在大型复杂数据集的基础上学习,而是通过示范人类学习的过程让模型学习。“我们的想法是基于一组训练数据和一些基本组成元素,学习的过程是基于基本元素的。”
团队还让场景信息发生变化,在这一过程中逐步告诉模型这是一只狗,“几乎90%的学习是通过自我学习的,因为模型理解了狗的基本组成元素。所以即使场景改变了,模型仍然可以知道这是一只狗。”
但这并没有就此结束,帕迪说,他们还必须弄清楚为什么模型会做出这样的判断,为什么模型会认为这是一只狗而不是一只狐狸,能否通过改变模型的某些特征要素来影响模型的决策。“必须将这种真实性、可审核性和解释性作为我们所构建的AI结构的基础。”
也就是说,通过引入这些基础元素和上下文的情境信息,让模型能够像人类一样学习,并随着情境的改变而不断做出调整。模型也需要具有解释的能力,就像人类可以解释为什么他们会做出某种决定,可以解释为什么他们会认为这是一张狗的照片。
(本文来自澎湃新闻,更多原创资讯请下载“澎湃新闻”APP)
文章来源:《下一代英才》 网址: http://www.xydbjb.cn/zonghexinwen/2021/0525/1794.html