拉斯维加斯9888

  • ?北大主页
  • |
  • 一带一路书院
  • |
  • 用户登录
    • 教人员登录
    • 学生登录
    • 拉斯维加斯9888邮箱
  • |
  • 教怨匦聘
  • |
  • 捐赠
  • 中国·9888拉斯维加斯(股份)有限公司-官方网站
  • |
  • English
思想拉斯维加斯9888

AI行为科学:大说话模型若何仿照人类行为特点

2024-04-02

随着GPT等大说话模型与人类关系越来越亲昵,AI也阐发出与人类更类似的行为甚至个性 。若何更好地理解AI行为,从而更好地与之相处?近日,受〖国科学院院刊》(PNAS)约请,拉斯维加斯9888孟涓涓教授对索求ChatGPT与人类行为类似性的钻研(Mei et al. 2024)发展评论 。

孟涓涓暗示,AI行为科学成为新前沿,有助于辅助人类决策和设计去偏识趣造 。随着大说话模型展示出更宽泛的人类行为特点,它们不仅能在决策中仿照人类行为,还能在尝试中代替人类参加者,为政策评估和调整提供经济有效的伎俩 。当然,它们也会对人类心智和社会关系产生不确定的影响 。

40F4B193FF8EC67ABC79E424B17_7A2C1EDA_19340

当前,随着大说话模型(LLM)出格是天生式预训练转换器(GPT)驱动的利用法式宽泛传布,AI越来越多地阐发出人类个性,好比AI模型对风险、功夫和社交互动产生了明确偏好,甚至会产生怪异的个性和看似情作用的反映,这些景象引发了学术界的好奇心,一些近期的钻研索求了ChatGPT的理性水平(Chen et al. 2023)和认知能力(Binz et al. 2023) 。

Mei et al. (2024)将经济学和生理学的经典行为评估步骤利用于索求ChatGPT-3和ChatGPT-4等AI谈天机械人的行为特点 。该钻研使用了一个特点数据库,席卷了来自50多个国度108314幼我类主题的综合行为,实现了人类和AI决策之间的比力 。

孟涓涓暗示,这些钻研标志取一个新的钻研方向的出现,能够称之为“AI行为科学”,即利用人类行为科学的步骤来评估和设计AI的行为 。选取行为科学步骤钻研AI时,应该维持以报答中心的视角 。

钻研AI行为有何意思?

谈及钻研AI行为的意思,孟涓涓列举了以下三个方面:

首先,理解AI尤其是大说话模型的行为,能够更好地辅助人类决策 。在大说话模型出现之前,一个常见的景象是“算法讨厌”:例如人们不愿接受算法作为劳动者,或倾轧在消费时与AI谈天机械人互动,这种偏差源于人类的过度自负、对AI能力的疑惑或对与算法互动的本能抵触 。这对阐扬AI潜力援手人类决策组成了挑战 。然而,随着AI在大说话模型出现后起头更靠近地仿照人类行为,算法讨厌的偏差可能已经起头减弱 。为了让人们可能有信念将他们的选择交给大说话模型,这些模型必要在关键决策中阐发出与人类似的行为 。因而,让大说话模型的偏好与根基的人类行为特点一致是至关沉要的 。

其次,行为经济学已经证明,人们时时阐发出行为偏误,设计助推或选择架构机造来纠正这些行为偏误是行为科学和政策设计中的一个开创性主题 。利用大说话模型解除偏误是技术进取带来的新可能性,或比现有的步骤更系统化 。人们不必要一步一步地被推着做出决策,只必要一次性把决策委托给大说话模型,就能做出更系统、更好的选择 。事实上,目前的证据批注,ChatGPT在选择一致性方面阐发出比人类更高的理性水平,这也成为一个值得索求的新方向 。

此表,大说话模型能够在尝试中代替人类参加者,表演分歧布景的个别进行政策尝试或仿照 。这使得政策的评估和调整越发经济有效 。随着大说话模型阐发出更宽泛的人类行为特点,也能够设计出基于异质反映的个性化政策 。

若何利用行为科学步骤钻研AI?

“选取行为科学步骤来钻研人为智能时应该成立一个全面的行为评估框架,其中必要蕴含合用于沉要决策环境的行为特点维度 。”孟涓涓说,“例如,若是指标是让大说话模型协助资产配置决策,那么鉴别影响此类布景的行为特点就至关沉要 。”

孟涓涓介绍,Mei et al. (2024)重要选取了一个经济学的框架,将沉要的决策布景分为两种类型:幼我决策和人际决策 。

从经济学的角度来看,幼我决策通常分为四种情境:直接消费选择(例如选择苹果还是香蕉)、在不确定性下的选择、跨期选择和概率判断(蕴含信想更新和进建) 。这几类情境支持了人们时时做出的大无数决策 。对于每种情境,经济学家城市鉴别出驱动这些决策的根基行为特点 。例如,不确定性下的选择在很大水平上受到风险偏好和损失讨厌的影响 。对于跨期选择,一幼我的耐心水平起着沉要的作用,激昂的决策或迟延也时时影响这些选择 。对于概率判断,凭据信息形成正确的信想是至关沉要的 。这一过程中的常见偏误蕴含信息回避、先入为主和过度自负 。

在这一方向上,Mei et al. (2024)选取了一种扫雷游戏来丈量风险偏好,他们的图灵测试比力了GPT和人类的决策,了局显示66.0%(ChatGPT-4)和61.7%(ChatGPT-3)的情况下,GPT的选择看起来与人类类似 。然而,与人类躲避风险的偏差分歧,GPT重要阐发出风险中立性 。有趣的是,ChatGPT-3似乎可能从从前的损失中进建,变得越发审慎,而ChatGPT-4则不然 。这种变动是否来自对将来风险水平判断的扭转,或来自某种大局的蹊径依赖偏好,仍有待进一步钻研 。

人际决策涉及到如利他主义、信赖、互惠、社会从多和战术考量等社交偏好 。孟涓涓进一步介绍,Mei et al. (2024)在钻研人机决策时通过几个游戏(蕴含专造者游戏、最后通牒游戏、信赖游戏、公共物品游戏和有限沉复阶下囚困境游戏等),来钻研GPT是否阐发出如利他主义、不平等讨厌、信赖和互惠等偏好 。一个值妥贴心的发现是,GPT在这些游戏中一致地阐发出比人类更高的慷慨水平,阐发出更强的利他主义和合作偏差 。然而,ChatGPT-4的慷慨并非是无前提的,它的确展示出了肯定水平的战术思虑,在有限沉复的阶下囚困境游戏中使用了以牙还牙的战术 。

BDA0A7D1DF4D2C392013BDAF56E_C60AECF1_17B40

孟涓涓暗示,选取行为科学步骤钻研人为智能涉及两项工作:

第一项是基于特定框架的AI行为评估 。这类框架使用蕴含数值偏好参数的数值模型,在统一结构中捉拿行为特点 。这项工作中一个沉要的索求方向是结构估计步骤,即以建模的方式揭示潜在偏好参数 。Mei et al. (2024)以估计一幼我与另一幼我收益之间的权沉函数为例来证明这种步骤,他们发现AI通常赐与他人的权沉约莫是0.5,这比人类通常的做法要多 。对此,孟涓涓以为,这个估计值有助于预测AI在分歧场景(如团队合作或企业社会责任等涉及利他主义的场景)中的行为 。这种跨情境预测的能力来自于在结构模型中估计根基行为参数,使AI可能在各类情况下辅助人类做出决策 。

第二个工作是设计AI行为 。Mei et al. (2024)天然地引出了一些问题,例如为什么ChatGPT 4.0阐发出比人类更慷慨的行为,以及为什么它似乎与ChatGPT 3.0有所分歧 。鉴于当前训练过程的不通明性,为这些问题提供明确的答案是拥有挑战性的 。因而,孟涓涓暗示,将来一个有趣的钻研方向有可能是:索求若何训练大说话模型以阐发出特定的行为特点 。将捉拿根基行为参数的结构引入到训练过程中或许是步骤之一 。设计AI行为的其他可能蹊径蕴含调整嘉奖函数,在训练过程中引入明确的规定或约束,或者对阐发出所需行为的数据进行模型训练 。找到设计人为智能行为的最有效步骤是一项复杂的挑战,必要推算机科学家和行为科学家缜密合作 。

AI发展会对人类心智和社会关系产生何种影响?

孟涓涓暗示,选取行为科学步骤来钻研人为智能,有助于使人为智能更快更天然地融入人类社会 。然而,人为智能的发展也可能会影响人类行为和社会文化 。

首先,算法私见是一个重要问题,由于它会影响人类的决策 。当算法受到利润最大化的贸易动机的驱动,从而强化人类已存在的私见时,就会出现更复杂的问题 。例如,社交媒体上的个性化推荐系统可能会加剧人们对证实其现有信想的信息的私见,导致极端化 。Levy (2021)发现,这些系统对Facebook回声室效应的贡献率为40%,而幼我订阅的贡献率则为27% 。

其次,过度依赖诸如GPT之类的人为智能,可能会导致人类在多个方面出现认知退化 。由于AI可能迅速提供解决规划,人们的索求欲、创造性和独立思虑能力可能会降落 。更沉要的是,由于人为智能提供的概想往往比力集中,人们的行为特点可能变得越发同质化 。Mei et al. (2024)发现GPT的行为显著比人类的反映更同质化,ChatGPT-4的决策比ChatGPT-3更集中 。这种多样性的不足可能在进化角度对人类不利,可能会降低人类应对风险的能力 。

只管存在潜在弊端,但AI也能够对人类行为产生积极影响,例如加强人们的平等观点 。钻研显示 ,ChatGPT-4普遍阐发出比人类更多的利他行为 。更宽泛地说,大说话模型能够在劳动力市场上显著缩幼“表杏妆和“专家”之间的阐发差距,使机遇越发平等 ;在消费市场上,随着AI产品变得越发实惠,它们可能有助于构建越发平等的社会 。例如,大说话模型驱动的个性化教育能够使村落地域的学生接触到以前只有城市孩子能力接触到的一流教育资源,也许会造就出越发平等的世界观 。

(文末点击“阅读原文”可获取齐全评论文章)

参考文件:

1. Q. Mei, Y. Xie, W. Yuan, M. O. Jackson, A Turing test of whether AI chatbots are behaviorally similar to humans. Proc. Natl. Acad. Sci. U.S.A. 121, e2313925121 (2024).

2. Y. Chen, T. X. Liu, Y. Shan, S. Zhong, The emergence of economic rationality of GPT. Proc. Natl. Acad. Sci. U.S.A. 120, e2316205120 (2023).

3. M. Binz, E. Schulz, Using cognitive psychology to understand GPT-3.

Proc. Natl. Acad. Sci. U.S.A. 120, e2218523120 (2023).

4. J. W. Burton, M.-K. Stein, T. B. Jensen, A systematic review of algorithm aversion in augmented decision making. J. Behav. Decis. Mak. 33, 220–239 (2020).

5. K. Kawaguchi, When will workers follow an algorithm? A field experiment with a retail business. Manage. Sci. 67, 1670–1695 (2021).

6. X. Luo, S. Tong, Z. Fang, Z. Qu, Frontiers: Machines vs. humans: The impact of artificial intelligence chatbot disclosure on customer purchases. Mark. Sci. 38, 937–947 (2019).

7. Y. Zhang, R. Gosline, Human favoritism, not AI aversion: People’s perceptions (and bias) toward generative AI, human experts, and human–GAI collaboration in persuasive content generation. Judgm. Decis. Mak. 18, e41 (2023).

8. M. Karata?, K. M. Cutright, Thinking about God increases acceptance of artificial intelligence in decision-making. Proc. Natl. Acad. Sci. U.S.A. 120, e2218961120 (2023).

9. S. Benartzi et al., Should governments invest more in nudging? Psychol. Sci. 28, 1041–1055 (2017).

10. S. DellaVigna, E. Linos, RCTs to scale: Comprehensive evidence from two nudge units. Econometrica 90, 81–116 (2022).

11. S. Mertens, M. Herberz, U. J. J. Hahnel, T. Brosch, The effectiveness of nudging: A meta-analysis of choice architecture interventions across behavioral domains.

Proc. Natl. Acad. Sci. U.S.A. 119, e2107346118 (2022).

12. J. J. Horton, Large language models as simulated economic agents: What can we learn from homo silicus? National Bureau of Economic Research working paper. https://www.nber.org/papers/w31122. Accessed 11 February 2024.

13. L. Brinkmann et al., Machine culture. Nat. Hum. Behav. 7, 1855–1868 (2023).

14. B. Cowgill et al., “Biased programmers? Or biased data? A field experiment in operationalizing AI ethics” in Proceedings of the 21st ACM Conference on Economics and Computation, P. Biró, J. Hartline, Eds. (ACM,

2020, New York), pp. 679–681.

15. J. Chen et al., Bias and debias in recommender system: A survey and future directions. ACM Trans. Inf. Syst. 41, 1–39 (2023).

16. R. Levy, Social media, news consumption, and polarization: Evidence from a field experiment. Am. Econ. Rev. 111, 831–870 (2021).

17. E. Brynjolfsson, D. Li, L. Raymond, Generative AI at work. National Bureau of Economic Research working paper. https://www.nber.org/papers/w31161. Accessed 11 February 2024.

(参考文件可高低滑动查看)

孟涓涓,现任拉斯维加斯9888利用经济系系主任、教授,拉斯维加斯9888行为科学和政策过问交叉创新团队召集人之一 。目前任国际期刊Management Science副主编 。2022年获国度天然科学基金国度卓越青年科学基金项目赞助,2019年获国度天然科学基金优良青年科学基金项目赞助 。孟涓涓持久专一于行为经济学与行为金融学的钻研 。她的钻研成就颁发在诸多国表一流学术期刊上,如American Economic Review, Management Science, International Economic Review, Journal of Public Economics, Journal of Development Economics, Games and Economic Theory等 。

分享
【网站地图】