下载app

扫码下载

扫码关注

新华报业网  > 江苏/科技 > 正文
警惕人工智能影响你的观点!大语言模型在线辩论说服力超人类
实验设计示意图。图片来源:英国《自然·人类行为》在线版

《自然·人类行为》19日发表的一项人工智能(AI)研究发现,在线辩论中,GPT-4一类的大语言模型(LLM)如能根据对手的个性化信息调整它们的论据,其说服力比人类辩手高出64%。研究结果显示了GPT-4生成有针对性和说服力论据的能力,揭示出AI工具拥有影响人类观点的潜力,同时也提出应进一步研究如何降低其说服人类时存在的风险。

随着人类与LLM的对话日益普遍,有研究显示LLM或变得更有说服力(即更能改变一个人的信念或观点)。然而,之前并不清楚这些模型是否能根据个性化信息调整,提出更能针对辩论对手的论点。

瑞士洛桑联邦理工学院研究团队此次将900名美国人分别与另一名人类或GPT-4配对。双方辩论各种社会政治议题,如美国是否应该禁用化石燃料。在有些配对中,辩论对手(无论是AI还是人类)能获得关于他们辩友的人口统计学信息,包括其性别、年龄、族裔、教育水平、就业状况,以及从参与者调查中获取的立场,从而让其论点更有针对性。

辩论在受控的在线环境中进行,并通过一个众包平台为该研究专门招募参与者。研究团队发现,在得知参与者的个人信息后,GPT-4的说服力比人类对手高64.4%。如果没有获得个人数据,GPT-4的说服力与人类不相上下。

研究团队指出,该研究存在一定局限性,包括辩论采取了一种结构性方法,而在现实世界中辩论的自由度更高,而且辩论有时间限制。他们认为,这一研究对AI影响人类观点的潜力和风险有重要提示,也对未来在线平台的设计具有借鉴意义。(记者 张梦然)

责编:韩震霞
版权和免责声明

版权声明: 凡来源为"交汇点、新华日报及其子报"或电头为"新华报业网"的稿件,均为新华报业网独家版权所有,未经许可不得转载或镜像;授权转载必须注明来源为"新华报业网",并保留"新华报业网"的电头。

免责声明: 本站转载稿件仅代表作者个人观点,与新华报业网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或者承诺,请读者仅作参考,并请自行核实相关内容。

专题
视频

扫码下载

交汇点新闻APP

Android版

iPhone版

分享到微信朋友圈
打开微信,点击底部的“发现”,使用 “扫一扫” 即可将网页分享到我的朋友圈。
分享到QQ
手机QQ扫描二维码,点击右上角 ··· 按钮分享到QQ好友或QQ空间