Charlotte Han解答我们想要迫切了解的AI开发相关问题

2020年10月13日 15:52    发布者:eechina
提问者:Marcel Consée,贸泽电子

问:按照您对技术发展的看法,哪些业务领域在未来五年里最有可能大规模引入AI?

答:我们将需要顺着资金和数据的路子来找出这个问题的答案。公司在其业务中采用AI通常有两种原因,或者是希望增加营收,或者是希望通过提高效率来降低成本。

数据是AI的生命线——没有数据,AI便无法工作,因此变革将首先发生在有数据的地方。

这些线索将把我们引向业务的最前沿:销售和营销。这些部门会更快地采用AI,不仅是因为其对营收的直接影响,而且还在于这些部门希望更好地了解客户:谁访问了网站?谁下载了白皮书?哪些人在何时与销售代表进行了交谈?他们为什么放弃了购物车中的产品? AI可以自动确定销售线索,并适时提示销售代表跟进潜在客户。AI还有助于为每个客户提供个性化的内容和消息以及预测客户需求。销售和营销也是实施AI的低风险业务领域,因为采用AI不需要对其他业务职能进行太多改动。

密切相关并且不容忽视的一个部门是客户支持。如果公司已经开始收集数据来了解客户行为,那么利用从销售和营销部门获得的见解来提供更好的客户支持是有意义的,因为留住客户就增加了客户终身价值。对于公司来说,让现有客户满意并保持与公司的长期关系,要比获得新客户来得容易。尽管目前虚拟座席无法替代人工座席提供的支持,但虚拟座席可以不知疲倦地全天候工作,并缩短了响应时间。

其他显而易见的业务领域可能还有供应链,因为它不断受到考查,要求改进表现和提高效率。随着边缘计算(或边缘人工智能)的出现,不仅可即时提供分析,还可以由边缘计算机完成本地决策,而不必将所有数据传至中央服务器进行处理后再传回, 大大减少了延迟。

以在制造中引入机器人和异常检测软件为例,在供应链中采用AI可以快速简化流程并提高准确性。正如AI能够帮助销售和营销部门预测客户需求那样,它也能应用到供应链,在更大规模上更好地平衡供求关系。这并不会将实体商品限制在外——能源公司对实时预测电网浪涌和绿色能源优化的兴趣度越来越高。

供应链中出现数据隐私风险的可能性也会减少,因为数据大多由流程或机器生成,而不是个人数据。我们还可以认为,在新冠疫情过后,拥有可控制的强大供应链将是迅速从经济衰退中恢复的秘密武器。遗憾的是,这也将是尚未采用AI者所要经历的。

问:为了优化在这个时间框架中引入AI的影响力,需要哪些技术进步?

答:我并不认为实施AI需要什么遥不可及的先进技术,但我们将需要实现数据使用的民主化。

云计算在某种程度上曾带来帮助,但是当5G网络变得广泛可用时,边缘计算将推动AI在各方各面的普及。边缘计算机通常成本低廉,这进一步消除了采用AI的障碍。

企业内部也有工作要做。遗憾的是,一些高管仍旧认为在他们的iPad安装了Tableau仪表板就等同于拥有了数据。

采用AI的基础是创建允许数据在管线中流动的基础设施。在理想世界中,它会像触手可及的自来水一样,可以随时按需提供。如果业务中多达80%的数据均属于非结构化数据,那么拥有数据管线或基础设施就尤显重要,因此拥有能够从多个来源收集和提取数据(无论是结构化还是非结构化数据)的正确架构将是任何公司开始利用AI力量的第一步。借助这种架构,你将能够根据需要快速处理和移动数据,并获得可加速业务发展的见解和分析。

公司高管采用AI的另一个痛点是内部AI人才的短缺。因此,AutoML或“AI即服务”的重要性只会增加。它们可以帮助公司先进行试验和概念验证,然后再投资于满足业务需要的正确AI计划。

问:由于学习型AI取决于可用数据的数量和质量,我们需要用什么来让这些数据尽可能保持中性无偏? 我们是否要使用递归性AI来“刷洗”主要AI的输入?

答:这个很难做到,因为即使你有经过完美训练的模型,是模型中的佼佼者,这个模型也可能会过时,会发生所谓的“概念漂移”。概念漂移是指输入和输出数据之间关系不可预测的变化,这种变化在根本上改变了模型作出“预测”的准确性。

此外,如果用深度神经网络训练AI,会因DNN中有太多的隐藏层,而无法理解或解释DNN为何能得出这种结论。这就是我们所说的黑箱AI。因此,并不能通过创建一个无法理解的AI去解释另一个无法理解的AI。好消息是,许多研究人员正在开发让AI实现自我解释的工具。这也是为什么可以解释AI是一个新兴的机器学习领域,来帮助团队开发可解释并且包罗广泛的模型。

直至今日,我们依旧在很大程度上依赖于人工标记,因此这个问题的最佳答案实际上是我们人类。

从事AI项目的人类需要意识到可能存在的偏倚,并尽可能多地收集无偏数据。人类在训练过程中发现数据集中的偏倚时,需要将数据集中的偏倚归零。同时还需要让他们的项目或产品经过更多的透明度和审核流程,这样就可以尽早发现问题。拥有不同测试数据的数据集非常重要,可确保系统不出现偏倚。这项旨在确保系统“保持最新”的工作需要一直不间断地运行下去。

作为人类,我们每一个人都有着自己的偏见。如果AI团队来自不同的背景,我们可以互相制衡,就更有可能消除彼此的盲点。

或许我们也能够训练AI去检查人工标记数据,以找出存在的任何异常和不一致之处。

问:在具有重写自身代码能力的学习型AI中实施一套固定的道德准则是否可行? 鉴于不同工业社会价值体系的差异,这种做法是否可取?

答:尽管放心,我们离实现AI自我编程和摆脱控制还很遥远。

虽然制定某种高水平的道德准则是很重要的,就像虽然制定了《不扩散核武器条约》一样,但每个人都有着不同的打算,所以认为每个人、每个组织和实体都会一丝不苟地遵循同一套AI伦理规则中的各项细节并不现实。

当我拥有一辆自动驾驶汽车时(尽管那时我们可能不再需要拥有汽车了),我不希望汽车为了避让一只横穿马路的狗而猛打方向盘,结果让我自己送命。但作为车主,如果知道我的车会撞死一只小狗,我的良心会过意的去吗? 最后,如果汽车厂家决定采取最高道德准则,设计的汽车优先保护推车中婴儿的生命,但却有可能导致我送命,我还会不会买这辆车? 我可没那么大的把握。这就是著名的电车难题。

即使我们有了一套规则,这对AI而言也仍然不可行。比如英语这种语言,并没有“最佳”的表达方式,因为在现实中,语言是由不断使用它的人有机地改变的。没有人真正遵循所有语法规则。

AI也会随着训练数据而发展。

基于规则的AI无法扩展,因为不可能写出所有存在的规则。AI的目的就是探索全部可能性,以找到最佳的优化策略。设计决定了它们经过训练会去寻找漏洞。我们写下的规则越多,AI将找出的漏洞也就越多。

我认为道德价值将反映在每个公司或组织所创造产品的设计理念中,消费者会用他们的钱来投票。也许这是看待这个问题的一种非常单纯和资本主义的方式。

虽然政府通常对新技术了解得太慢,无法进行正确监管,但其扮演的角色仍旧十分重要。但是,我们确实需要国际社会中各国政府在我们这个时代创立《不扩散AI武器条约》,只不过这个条约是用于对人的监管。


文章来源:贸泽电子

作者简介:Charlotte Han致力于处理数据以及制定品牌和数字策略。在亚洲长大的她,在硅谷取得美国国籍后现定居欧洲,这种不平凡的经历让她学会了不要把任何事物视为理所当然,而是要把看似无关的事物联系起来。她对所有的科学技术都很感兴趣,尤其是那些能改善人类生活的技术。她还喜欢与那些标新立异、不墨守成规、勇于创新的人一起交流。