战略与管理

人机协同:探索AI与人的协作潜力及挑战 | 学术光华

2023-11-17

如今,人机协同在业界有着广泛的应用场景。而人机协同在业界的流行,也促使越来越多的学者关注这一领域,以探究人在AI的协助下会产生什么样的行为、决策等变化。

bat365在线平台网站光华管理学院市场营销学系副教授张颖婕,特别关注从人机协同和共同进化的视角来系统性设计评估智能策略,在提升商业价值的同时兼顾社会公平性。研究发现,人机协同在提升系统性能和效率方面存在巨大潜力;而在人机协同过程中,也需要充分考虑人的因素和作用。

undefined

技术驱动下的人机协同发展

在AI技术相对成熟的现阶段,张颖婕发起叩问,人还能发挥多大的作用呢?人是否能挖掘出AI未能触及或者未能实现的价值呢?张颖婕以AI的发展为切入点,思考在人工智能进入社会后,人类应当如何发挥主观能动性,由此引出了自身关于人机协作的研究主题,以及人类应当如何实现自身价值的问题。

基于这一问题,张颖婕回顾了学术界对不同情境下AI应用的最新研究,并介绍了AI技术在业界受到了哪些挑战。

张颖婕表示,当前人工智能研究领域有两类学者:一类关注技术方向上的突破与演进,如借由算法和大数据改进模型,优化股票走势预测,促进商业智能化转型;另一类则将目光聚焦在“人”身上,基于现有技术,研究如何更好地配合人工智能,如何在现有技术条件下与人工智能进行互动。她属于后者。

关于人在人机协作中的行为特点,近年来的研究也做了不少探索尝试:一方面是AI-Aversion现象,即人由于缺乏信任、依赖个人经验和直觉、担忧低层次工种被取代等原因,对AI存在“抵制”,另一方面是Cyborg Effect现象,这是前者的极端反面,即AI给定决策建议后人的能动性下降,人更加依赖AI而不愿意主动决策。

在她看来,随着AI的“类人”性以及自身算法能力的不断提升,再加上AI的“商业版图”的不断壮大,AI和人共存合作的可能性和必要性也在不断增强。换句话说,人是难以避免和AI产生接触的。

消费者与AI制造

先前的研究表明,消费者不太喜欢机器人客服,因为机器人客服不够聪明,无法与消费者共情。然而,随着人工智能技术的不断发展,如ChatGPT等智能AI的出现,这些问题正在逐渐解决。现在的AI产品已经进化到与人相似的程度,消费者可能会慢慢接受这些产品。

因此,张颖婕认为先前的研究结论可能不再适用,她想探索的是在新的技术背景下,消费者对于AI产品的态度和接受度。

当AI已经成熟了,当世界上AI已经很普遍了,作为消费者的自己,会怎么样面对?在张颖婕看来,机器学习是一个向上走的趋势,会越来越智能,这是毋庸置疑的。作为消费者或者作为人这个群体来说,对人工智能的态度,已经或者即将不能用“AI不够聪明”来作为抵制AI产品的理由了。

“但不知道人们的态度会不会是一个曲线,就是当机器进化到一定程度的时候,人们会先欣然接受并享受AI制造,但是当AI进一步进化之后,消费者或用户的态度又会如何则是一个难以预测的问题。我们需要持续跟进并及时作出预测。”张颖婕说。

张颖婕表示,在不同领域人与AI之间的合作和决策过程可能因情境而异,需要考虑不同的因素。在金融领域进行的研究可能得出的结论与其他领域不同,因为不同行业的工作特点和需求不同。

在某些情况下,人工审核决策可能没有任何作用,而人工智能能够以更高的准确率来做出决策。在另外的场景中,人类仍然具有价值,需要通过刺激来发挥他们的作用,这可能涉及提供大量数据、解释人工智能的决策以及使用激励方法。

人机协同的应用与提升

在张颖婕看来,AI赋能生产力是现阶段AI持续进化带来的一大益处,甚至是最大益处。但AI的赋能同样离不开有效的人机协同。机器与人如果能发挥协同作用,决策的整体效果会更好。

针对这一情况,张颖婕的研究试图解答三个问题:一是通过系统设计探索人类在人机协作中的贡献;二是解析这一人机协作的生成机制与原因;三是探讨如何利用人类的异质性来提升协作效能。

张颖婕选取亚洲的小额贷款公司为研究对象,对比了人工和AI在批准借款人违约率方面的决策差异。实验结果显示:在AI与人无合作(分别独自决策)的情况下,AI决策比人工决策结果违约率更低,给AI提供大数据能够显著降低违约率(但数据量对人工决策结果违约率无显著影响);而在给人工提供AI决策建议且这一建议与人工决策结论产生分歧时,有60%-80%的人会选择接受AI的决策建议改变自己的决策(当提供AI决策依据时这一比例会更高)。

结果揭示了几个关键的发现。首先,当人工和AI各自独立作决策时,AI的判断准确率明显超过人工,特别是当数据量大的情况下,人在决策时明显存在信息过载等问题。其次,在小数据情况下,人的参与并不能显著提升合作效率。并且,在大数据环境下,人类只有在被告知AI决策逻辑的前提下,才能对违约率判断产生积极的价值。

换言之,如果信息复杂度(即大数据环境)和AI决策逻辑信息二者不能同时满足时,人类信审员在AI的辅助下要么全盘听从,要么错误地坚持己见,从而使得合作效率与AI独自决策时相差无几;但两个条件的同时满足却能及时激发人工展现其独立思考和纠错能力,这恰恰体现了人类在人机协同场景下的独特价值。

“在大数据背景下,人工难以有效运用如购买记录等大数据信息,并将其与自身决策融合,尽管仍依赖传统数据,人工的判断能力并未显著提升。”张颖婕说。

相比之下,AI在处理大数据信息上,显示出更强的提取、转化和运用能力,从而得出更精准的判断。另外,当面对中间情况且处于纠结状态时,人工更倾向于依赖AI的决策,但当申请人的情况较为极端时,人工通常会依赖自己的判断而非接受AI的建议。

算法面前人的情感不可忽视

张颖婕的研究,揭示了人机协同在提升系统性能和效率方面的巨大潜力。在互联网金融借贷的实验中,人机协作行为使得整个系统的预测正确率提升了一倍,系统违约率从原先的6%降低到3.8%。这项研究表明,人机协同可以提高系统的性能和效率,同时也需要充分考虑人的因素和作用。

研究发现,在引入机器学习算法进行先期预测推荐后,人工审核员在大部分情况下会倾向于听从算法的意见。然而,当提供了用户大数据以及算法的具体机制解释之后,人们会在看到算法建议之后,自发地进行一个重思考的过程,不再一味地认为AI是好的,而是对AI进行有效修正。

值得关注的是,人的情感也应当是人机协同中被考量的重要因素,这涉及AI向善和伦理问题。在外卖骑手的例子中,骑手有时候并不会遵从算法规划的路线,这可能由于算法决策没有考虑到骑手的情况,例如骑手位置、疲劳程度、实际路况等,亦或是骑手的过往经验让他们做出背离算法的决策。

“机器只能给你建议,最后还得是人来完成。”张颖婕表示,算法其实是非常厉害的,如果骑手能够按照算法推荐的路线,他的收益一定是最高的。但事实却是,百分之七八十的骑手,都不会完全遵从算法的推荐。

在张颖婕看来,这些问题不是人工智能本身造成的,而是使用者和管理者存在的问题,如平台方和企业。人机协同固然可以提高系统的性能和效率,但也需要充分考虑人的因素和作用。在设计和应用AI技术时,需要考虑到人的需求和利益,以确保AI技术能够真正为人类服务。

那么人与AI,什么时候能达到最优的调和效果呢?

一种新的算法策略出现了:即算法会去预测人会不会违约,会不会不遵守算法,而把人的情感考虑到算法的模型里边。在设计者看来,这种策略按算法来说可能不是最优的,但一定是算法加人最优的。

“如果在特定的场景下,只能依靠人来做最后决策的话,你就要考虑全局,把人的情感也考虑进去。”张颖婕说。

参考文献

1、Lu, Tian and Zhang, Yingjie, 1 + 1 > 2? Information, Humans, and Machines. Available at SSRN: https://ssrn.com/abstract=4045718

2、Lu, Tian, Zhang, Yingjie, Li, Beibei. Profit vs. Equality? The Case of Financial Risk Assessment and A New Perspective on Alternative Data. MIS Quarterly, 2023, 47(4): 1517-1556.



张颖婕,光华管理学院市场营销学系副教授,卡内基梅隆大学博士(信息管理系统方向),曾就职于美国德州大学达拉斯分校,主要研究领域包括跨学科方法论研究、人机协同、共享经济、社交媒体、用户行为等。

分享