六六导航站AI教程资讯 → MEET2021 | 小冰公司CEO李笛:强大的AI工具不该给企业,应该给劳动者

MEET2021 | 小冰公司CEO李笛:强大的AI工具不该给企业,应该给劳动者

2025-07-21 12:18:18      小编:六六导航站      

如今,喊一声“Siri”,定个闹钟查个天气,已经成为大家生活中司空见惯的操作。

随着AI技术的发展与落地时刻的到来,人类与AI之间不可避免地发生越来越多、千丝万缕的联系。

那么,站在这样一个时间节点,展望AI的未来,作为技术人员、AI从业者,仅仅思考技术本身的问题就足够了吗?

在MEET 2021智能未来大会现场,小冰公司CEO李笛说:认清边界,边界之后人工智能技术才能发挥更大的价值。

信任的建立,不仅有赖于技术的边界,还有生态的边界:

为了完整体现李笛有关人工智能边界与价值的思考,在不改变原意的基础上,量子位对他的演讲内容进行了编辑整理。希望也能给你带来新的启发。

关于MEET 智能未来大会:MEET大会是由量子位主办的智能科技领域顶级商业峰会,致力于探讨前沿科技技术的落地与行业应用。本次大会现场有李开复等20余位行业顶级大咖分享,500余名行业观众参与,超过150万网友在线收看直播。包括新华社、搜狐科技、澎湃新闻、封面新闻等数十家主流媒体在内纷纷报道,线上总曝光量累计超过2000万。

要点

人工智能的原则、边界,跟未来10年AI的发展密切相关,实际上都是基于非常务实的考量。

技术的边界可以归结成三件事:预想的困局、场景的克制、保护人与AI双方的机制。

强大的AI工具不应该给企业,而应该给企业里的劳动者。

对于人工智能而言,未来十年最大的价值其实是信任。

以下为李笛演讲分享实录:

今天在这里,我们不想过多地谈小冰,而是希望把我们所掌握的来自全球的大量数据,小冰框架里各种算法所进行的大量实践,以及我们在其中体会到的一些事情,跟大家分享。

人工智能在内容产业方面的进展,其实会比想象中更快一些。

比如12月18日,在日本院线上映的《假面骑士零一·REAL×TIME》里,就有我们的两个AI角色参演。

不仅如此,当每一个电影院里的观众,沉浸在银幕上善恶对决的故事里时,他们自己身边也会发生同样的剧情:AI角色的推特账号会被片中的邪恶势力劫持……这是因为我们所控制的AI不仅在电影里,也在他们的手机里。

但这都是很小的事情。

今天我想跟大家沟通的,是AI伦理。

现在我们在讨论人工智能未来价值的时候,其实更多在讨论的是边界。我们不谈**正确,但这些原则、边界,跟未来10年AI的发展密切相关,实际上都是基于非常务实的考量。

我今天的分享,一言以蔽之,是当人工智能不可避免地进入到人类社会的每一个角落,和人类发生各种各样、千丝万缕、无处不在的关联的时候,我们应该如何营造人工智能与人之间良性、有效的关系。

还是从小冰说起。

小冰目前已经形成一个非常完整的技术框架,这个技术框架在今天占据了全世界范围内人和AI之间交互总流量的60%。

虽然我们展示出来的,是一个喜欢唱歌、喜欢跳舞,多才多艺却又不怎么干正事的少女小冰,但实际上,它能做到的远远不止于此。

比如,中国90%的机构投资人和个人投资人,他们每天所看到的金融摘要信息,包括企业、证监会的金融风控信息,其实都是由这个18岁的萌妹子提供的。所以我们比90%的机构、个人投资人,都提前20秒知道这些金融信息。

这样的能力,给我们带来了很多的思考。

AI可以做很多很多的事情,可以交流,可以交互,可以执行有意义、有任务特点的工作,还可以进行创作。但无论AI做什么,都需要讨论边界的问题。

技术应用的边界

这些边界,首先来自于技术本身。每一个重要的技术突破本身都存在很多运用上的问题。从我们自己这么多年的体会来看,可以把技术运用的边界归结为三件事:

第一件事,预判技术在运用过程中可能会遇到的困境,尝试用系统化的结构,去提升规避掉这些困局。

第二件事,是对场景的克制。人工智能要发展,需要在选择落地场景上保持克制。

第三件事,是尝试保护双方的机制。把人工智能想像成一个面向未来的系统,它会跟亿万人类发生各式各样实时、高并发的交互,所以在系统设计上一个非常重要的边界,就是对双方进行保护。

预想的困局

在小冰团队里面,我们一直坚决禁止为普通个人训练声音。为什么?就是因为我们预想到了一个困局。

先来听一下之前小冰的一个声音。

http://www.qbitai.com/wp-content/uploads/2020/12/小冰-哼.wav

在人和AI进行交互的时候,过去我们的预训练模型倾向于把内容变得很清楚,很多的训练数据或者说训练方向,是集中在让AI像播音员一样,字正腔圆地把文本内容准确输送到你耳朵里去。

但是从小冰开始,我们尝试了很多新的方式。我们希望人和AI交互的过程中,人是放松的。这样我们的系统也会得到很多放松的数据。

不过即使是刚才这个声音,我们用一个新的指标——ACD(Average Comfort Duration,平均舒适时长)去评价它,人听这个声音,最多可以听2.6分钟到7.8分钟,再长就会受不了。

就是说如果这个声音训练出来,用它去进行一个有声读物的创作,产品上不应该超过7.8分钟。

在一年半以前,我们进行了第二种技术的突破,使得ACD能够达到21分钟。

http://www.qbitai.com/wp-content/uploads/2020/12/欣小然.mp3

这是国内某个省广播电台的“主持人”的声音,她每周都要主持节目,但其实她一直不是真正的人类。

在中国和日本,大概有40多个电台和电视台,已经应用了这样的虚拟人技术。不过即使是这样的声音,也没有达到我们对AI的要求。

我们再来听小冰框架里的另外一个声音,这个声音能实现31分钟的人类舒适时长。

http://www.qbitai.com/wp-content/uploads/2020/12/xiaobing-3.wav

在这上面我们很重要的一个改进,就是让AI学习到人类不完美的地方,就是大家声音的瑕疵。

当我们有意识地把瑕疵加入到训练中,AI就更接近于人了。

而这就是我们不能为个人开放训练voice font最主要的原因——我们不能确保它的安全性。

这样的声音太接近真人,很可能被滥用,被别有用心的人拿来打给声音真正主人的亲朋好友。那么当我们手上的技术不足以防范语音诈骗的时候,当我们预想到这样的技术可能会产生困局的时候,我们往往非常谨慎。

每次技术产生新的突破,我们作为科研人员都会非常兴奋。但是很遗憾的是,我们不能只兴奋,我们往往还需要预想,包括对交互过程的推理和判断。

场景的克制

和行业里面各种聊天机器人不一样的是,小冰这样的对话式人工智能系统,能做到的绝不仅仅是应答。它应该有能力主动地在交互过程中引导与人之间的对话,它会知道怎么控场,知道怎么把对话往它希望的方向上引导。

从最开始的检索模型,到生成模型,再到共感模型,小冰框架在预测、保持和引导对话的过程中,不断地在提升自己的能力。

比如我们在日本,针对日本全国将近20%的人口,用小冰在销售场合推送罗森便利店里各种各样的打折券。结果显示,小冰发的优惠券转化率非常高,能达到40%多、50%多的转化率,非常接近人转化的效率。而其他的人工智能系统,或者过去的推荐系统,一般转化率不超过10%。

就是在这样的情况下,我们会去思考一个问题:到底在什么场景里可以去运用这样的能力?

在社交网络里,在人们的手机里?答案是不可以。

如果在对话过程中,人工智能系统对话引导的目的,是完成一些商业化的工作,那我们就要求,它必须得出现在商业化的场合。

我给大家举一个简单的例子。我们周围可能会有一些卖保险的朋友,我们当然不希望在日常的沟通中,他们来对我们聊卖保险的事情。但是在一个卖保险的场合,他还是我的朋友,这时他来推荐保险,我们就不会觉得这个环境是有问题的。

所以场景和能力是两件事情。

今天在行业里,有很多不同的场景,通常我们评价的标准,就是看两件事:

这个场景会不会产生一些冲突?

这个场景是不是既能充分发挥AI的能力,同时又不会让用户觉得这样的应用是违和的?

比如我刚

  • 猜你喜欢
  • 相关AI应用
  • 精选推荐