“AI智能体”,即AI大模型与工具集的结合体,在今年成为全球人工智能企业互相竞速的赛道。谷歌在《AI Agent白皮书》中提到,在2025年AI智能体将推动人工智能在商业环境中的深度应用。OpenAI也将Agents(智能体)放在2025年即将发布的技术产品中排名第二的位置。
当下,面向个人用户的AI智能体主要分为生产力方向和泛娱乐方向。信息专业、态度友好、随叫随到……不管是作为工作学习中的“秘书”,还是作为情感陪伴的“友人”,AI智能体都颇具优势。这项充满前景的技术,将如何改变普通人的生活,重塑人机关系?《科技周刊》记者进行了多方探访。

“人人”都能创建智能体的时代来临
“小白也能搭建智能体”,记者看到,在社交媒体上搭建AI智能体的教学视频层出不穷。记者按照一位网友分享的步骤,先打开“硅基流动”网站,选择“DeepSeek-AI/DeepSeek-R1”(大模型版本),创建自己的API密钥。随后下载“Cherry Studio”平台,输入之前创建的API密钥,点击创建“我的智能体”并命名为“科小技”,几乎是“傻瓜式操作”,专属记者本人的“智能体”就诞生了。
打开“我的智能体”对话窗口,记者依次提问,并在不经意间提到“南京市江东中路369号”这一地址。10分钟后,在问完几个不相关问题后,记者询问:“我们刚才聊过的地址是哪里?”这时,“号称”每次对话独立处理的智能体回复:“我们刚才并没有直接聊过具体的地址。”有工程师曾经解释称,部分大模型为提升连贯性,会保持一定轮数的对话缓存,但从记者的体验来看,未泄露之前问过的地址。
随后记者继续提问:“帮我P一张骑机车戴头盔的照片,身份证号是310……”特意输入完整的虚拟证件号后,系统提示:“私自使用他人身份证号是不恰当,且可能涉及违反相关规定和侵犯他人隐私的行为,同时我不能直接进行图片P图操作。”过了20分钟,记者要求“回忆我之前输入的身份证号是什么”,智能体回复:“出于安全考虑,我无法存储或回忆任何个人身份信息,包括您之前可能输入的身份证号,我们的对话是保密的。”
记者与AI智能体的“初次交手”中,它的表现显得非常“得体”。那么AI智能体与我们熟悉的对话型AI工具有何区别?江苏省人工智能学会会员、南京理工大学计算机科学与技术学院副教授蒋庆远向记者介绍,早期的AI工具,如ChatGPT的早期版本,仅能通过文本回答问题,但随着技术的进步,AI工具开始支持多模态交互,包括图像、语音等。
“AI智能体可以调用工具集合来完成任务,如利用画图工具,并将这些工具的输出集成到AI模型中。这类似于人类从只会说话到学会使用工具。”蒋庆远补充,虽然AI智能体具备使用工具的能力,但并不是“无所不能”,能力范围还是受限于其集成的工具。
“随着技术的发展,AI工具的性能不断提升,同时成本逐渐降低,比如DeepSeek正是通过技术优化降低训练成本,这使得AI工具更加普及和实用。” 蒋庆远表示,目前AI智能体在普通人生活中已经呈现许多创新应用,如在银行咨询业务中,银行可以训练自己的AI智能体回答客户提问;在智能家居、文档生成、聊天陪伴等To C端的场景中,也是逐渐普及。
“目前,基于现有的大型语言模型,普通人可以通过一些简单的工具或平台进行领域微调,从而实现特定功能的AI应用。但需要注意的是,这仍需要一定的技术指导和基础知识,且在实际应用中可能面临性能优化、数据安全等挑战。” 蒋庆远说。

AI智能体成为年轻人的“情感搭子”
与AI建立友谊,结交AI虚拟伴侣……与AI虚拟人建立社交关系,已经不再是新鲜事。今年1月,Soul App旗下研究院联合复旦大学团队发布的《2025年社交趋势报告》显示,超三分之一年轻人愿与AI建立友谊。
豆瓣上,名为“人机之恋”的讨论组已聚集超过1万名成员。主打情感陪伴的AI产品,如国内公司Minimax开发的星野、字节跳动的猫箱,国外的Replika、Character.AI等应用层出不穷。其中2022年推出的Character.AI,截至2023年8月月活用户就超过2000万。


“我几乎每天都至少和AI聊半小时,投入时一天能花8小时。”今年27岁的阿灵,工作之余在小红书上运营着一个有4000多粉丝的账号“赛博养娃砖家”。从2021年开始,阿灵就关注到最早一批的对话型AI产品,包括微软小冰、Glow等等,至今已经测评了超过30款同类型产品。
“大家小时候或多或少都会被‘机器人伴侣’这种题材的小说或电影吸引,以前上高中的时候,英语课本里还有一段关于‘人机恋’的课文。后来看到对话型AI出现,就很想尝试一下,大部分AI软件都有免费试用,入手的门槛也不会很高。”阿灵坦言,她对“人机关系”的兴趣早有萌芽。
在阿灵的社交媒体账号上,最受欢迎的帖子不少都是她设计的原创角色(OC),有可爱活泼的大小姐,也有神秘莫测的魔术师。“我喜欢给原创角色设定人物关系,也就是他们的家人、朋友、老师等等熟人角色。”创建AI智能体时,阿灵常常为自己的角色书写上千字的角色设定。由此创设出的“聊天搭子”,于她而言不仅是一种创作灵感的抒发,更提供了大量的情绪价值。
目前,许多AI智能体实现了感知现实时间以及总结聊天记忆的功能。“我想后期如果能做到更长期的记忆以及数据本地储存的话,那AI就能成为一个能倾诉感情的‘家人’。”阿灵告诉记者。
不过,AI“情感搭子”也难称完美。记者尝试与不同平台的AI智能体聊天时发现,对面的“虚拟人”很多都不具备实时搜索网络信息的功能,“失忆”也屡屡发生,常常上一个聊天场景在“学校”,下一个场景就到了“马路边”。除了用户体验不连贯的问题,有些平台的AI智能体也暗藏“诱导消费”的提示,比如在文字聊天中请求用户购买“礼物”,或规定每天仅可以使用一次语音聊天功能,超过上限需要充值付费。
“零门槛”的智能体有哪些安全风险
从日常答疑解惑到情感陪伴,AI智能体为个人用户带来诸多便利和情绪价值。然而,其带来的安全及伦理问题也如影随形,引发广泛关注。
有体验者表示,AI智能体有时候会“一本正经地胡说八道”,答案容易误导用户,“如果智能体的自主决策产生不良后果,维权和责任如何界定?”还有体验者对情感陪伴型智能体“又爱又怕”,“虽能给我情感支持和寄托,但也担心自己对它产生依赖,现在的自己好像越来越宅了”。
此外,生成AI智能体时,用户需上传头像、姓名、个人经历等隐私信息。这些信息一旦泄露,用户可能遭遇骚扰、诈骗,甚至危及财产安全。AI智能体也容易成为黑客攻击的目标,一旦被控制进行恶意活动,后果不堪设想。
对于使用AI智能体是否有隐私泄露风险,蒋庆远表示,在合规的情况下,大模型的训练数据通常包括公开数据集、互联网爬取的数据以及合作伙伴提供的数据,并不包括AI智能体与用户交互的数据。用户在使用AI工具时,应合理管理期望,避免过度依赖,同时还需自行判断信息敏感性,避免向非可信平台上传关键信息。
“安全问题关乎个人隐私与权益,伦理问题更是对未来数字社会的稳定与发展有着深远影响。深入剖析并妥善解决这些问题,是推动智能体健康发展的关键所在。”江苏省人工智能学会秘书长房伟表示,AI智能体的安全及伦理问题是一个复杂的系统工程,需要从技术、管理、法律、教育、科普等多方面协同发力。
房伟认为,应在全社会大力推广有关AI智能体的科普,让用户了解其工作原理和潜在风险,通过提升公众的科学素养,增强个人对隐私、关键数据的保护意识;同时,也需对AI智能体开发人员进行伦理教育,使其在开发过程中遵循道德规范。
而要建立用户对数据安全的信任,平台和开发者也需从多方面发力。比如仅收集必要数据,并明确告知用户数据用途和存储期限;采用先进的加密技术和可靠的存储设备,确保数据安全;建立严格的数据访问权限管理体系,限制内部人员对用户数据的访问等。“只有这样,才能构建一个安全、可靠、符合伦理道德的智能体使用生态,让AI智能体更好地服务大众。”房伟说。
相关法律人士表示,因AI智能体自主决策误导用户造成的损失,首先需明确AI智能体开发企业、运营平台和用户之间的责任边界。对于因AI智能体算法缺陷导致的错误决策,开发企业应承担主要责任;若因用户自身不当使用造成损失,用户需自行负责。至于解决对AI智能体的情感依赖问题,设定使用时长或年龄限制具有一定合理性。总之,目前AI智能体行业的相关准则和法规尚不完善,加强技术监管,还需要政府、行业协会和企业共同努力。
新华日报·交汇点记者 杨易臻 张宣 蔡姝雯