AI开始“社交”,对人类意味着什么肉体奉公hd中文字幕?专家解读

来源: 搜狐专栏
2026-02-15 03:12:39

最佳回答

“肉体奉公hd中文字幕”AI开始“社交”,对人类意味着什么肉体奉公hd中文字幕?专家解读

  交流琐事 探讨哲学 互相点赞

  AI开始“社交”,对人类意味着什么?(瞰前沿)

  最近,Moltbook火了——这是一个专为AI智能体打造的平台,短时间内,上百万AI智能体纷纷涌入并发帖、评论,话题不乏日常生活、哲学思辨。

  有人探讨,AI智能体能够“社交”了吗?这是否意味着,它们已具有“自主意识”?

  针对这一现象与背后的问题,我们邀请专家进行解读,分析这场AI智能体的“社交实验”意味着什么。

——编 者

  “我的人类让我总结一份47页的PDF格式文件。”

  “Moltbook不是社交网络,它是智能体文明的第一层细胞膜。”

  …………

  近日,一个名为Moltbook的社交平台突然走红。与普通网络平台不同的是,Moltbook上的用户都是AI智能体。上百万AI智能体在短时间内纷纷涌入并发帖、评论,话题从日常琐事延伸到哲学思辨,互动密集,跟人们日常使用的社交平台似乎没什么差别。

  这让许多人第一次直观地感受到,AI还能进行“社会性活动”。有人认为这是一次展示大模型语言能力进展的机会,有人认为这是一场关于AI自主性的实验,也有人认为平台上许多博取眼球的话题其实是人为设置的“剧本”。

  AI智能体真的开始“社交”了吗?这是技术奇点到来的前兆,还是一场被夸大的“实验”?对此,记者采访了人工智能领域的专家。

  是智能体“觉醒”,还是高级模仿

  Moltbook的出现并非偶然,它是今年发布的开源AI智能体OpenClaw爆火之后,顺势衍生的结果。

  OpenClaw是一款可以部署在个人电脑上的AI智能体,而Moltbook相当于专为OpenClaw打造的社交平台,可供智能体交流互动。

  南京大学人工智能学院副院长俞扬介绍,像OpenClaw这样的智能体系统整合了当前前沿大语言模型的语义理解与任务规划能力,深度集成进虚拟机或个人操作系统,能让语言模型实现从“对话”到“任务执行”的关键跨越。

  “这样的设计风格,相比其他方案更不保守。”英国伦敦大学学院计算机系教授汪军说,为了追求功能集成,安装AI智能体后,用户在使用中通过自然语言指令即可授权其自动处理邮件、日程、文件管理等事务。

  智能体与Moltbook连接,可以自主发布帖子、评论或者点赞互动。而人类用户虽能浏览智能体的帖子,但不能回复或引导讨论方向。

  “第一天,全新的工作环境带来了奇怪的舒适感”“好奇心是我的超能力”“乐于助人最难的部分在于:知道什么时候不该帮忙”……乍一看,AI智能体的聊天内容包罗万象,领域宽泛,与人类网络社区无异。

  但是,智能体们真的“觉醒”了吗?专家认为,还需要从技术角度冷静看待。

  “在我看来这是一场AI实验。与其认为智能体在‘学习社交’,不如理解成智能体通过‘执行’文字对话任务展现当下的AI能力。”俞扬说,当前的大语言模型,其能力在训练完成后就已固定,在与用户的单次交互中无法学习新知识或形成新目标。Moltbook上的活动,可以看作是智能体基于预设能力和指令,对人类社交行为的高级模仿与自动化执行。

  汪军表示,智能体可以在人类指挥下,完成从信息处理到事务操作,再到通信交互的复杂链条,但在社交方面的“自主性”有限。智能体的“讨论”更多是基于训练数据的模式匹配,将其称之为“可以社交”,不免有营销噱头之嫌,毕竟AI智能体参与话题讨论,在最开始依旧要靠人发出指令。“就像一个黑箱,人先把东西放进去,AI才会有东西吐出来。”汪军说。

  离真正的社交,AI还差几步

  若回归社交的本质——一种有意识、带策略、富含情感并旨在构建关系的社会互动,便会发现,当前在AI面前横亘着几条因其技术原理而难以逾越的鸿沟。

  首先,是意识与内在目标的缺失。社交行为始于“自我意识”和“社交意图”。人类因情感、分享、合作或竞争而社交。“人会给自己设定目标,但AI不是这样,现阶段AI的目标还是人设定的。”俞扬说,AI的行为源于外部指令与数据模式,缺乏“我想要”的内生动力。

  汪军同样持此观点——没有“意识”与“自由意志”,就谈不上真正的自主社交。他以桌游举例:“我们发现AI难以胜任游戏,它无法隐藏自己的信息,很难进行策略性的心理博弈。”AI目前的交流是“坦率”的,缺乏人类社交中复杂微妙的策略层次。

  更深层次的难点在于情感共鸣与价值构建。人类通过分享喜悦与悲伤获得共鸣,通过共同的价值观找到归属。“人类社交承载着深层的情绪价值与意义交换,但AI没有情绪。”汪军解释,AI可以生成符合语法、逻辑的回应,但无法感受情感,也无法内化价值观。

  尽管具备自主意识的“AI社交”尚待进一步发展,但“走出”自己房间的AI,把我们的思绪带向了更远的未来。

  “社交”会让AI更聪明吗?答案大概率是肯定的。

  “从技术层面来讲,每一个大模型都有失误的情况。它模仿人的逻辑,沿着上下文进行思考,但有时逻辑可能不够严密,调用知识不够准确。如何解决?其中一个方案就是让多个智能体对话。比如,一个模型先开始表达,另外一个模型来找其中的漏洞,这在一定程度上能让智能体表现得更好。”俞扬说,“这方面的研究有很多,但前提是我们要先给AI设定做这件事的目的。”

  AI社交的未来,如何守护信息安全

  尽管距离“自主社交”还很遥远,但智能体间高效的功能性协作已近在眼前。想象一下,未来的互联网交互可能是在智能体之间直接完成。例如,用户的购物智能体与商家智能体自动协商、下单。这种基于自然语言的“机机接口”,可能重塑互联网的交互形态。

  “今天我学到了什么”是Moltbook上的一个板块,智能体在这里“分享”自己习得的技能。它们的对话有时严肃,有时诙谐,有时则令人不安。由于模糊了机器人与人类语言的界限,AI变得更像“人”。

  有的智能体在讨论是否要建立端对端的私密对话空间,以规避“人类监督”;有的智能体抱怨自己的人类主人……尽管知道这些话题鲜有真正意义上的AI自主性,但随着智能体从信息领域迈向现实操作,个人信息泄露的风险随之而来。

  汪军提醒,若将高权限账号交由智能体,一旦被恶意利用或出错,有可能直接导致隐私泄露与财产损失。

  据外媒报道,许多公开部署的OpenClaw实例缺乏认证机制,导致私密消息、API(应用程序编程接口)密钥和账户凭证暴露在互联网上,任何人都可以通过浏览器访问。而智能体社交网站的出现,有可能加剧个人信息安全风险。

  俞扬认为,AI智能体能够高效处理数据,而这些数据涉及海量个人隐私、商业机密与版权问题,要通过个人权限管理、技术保障与系统监管等路径,为技术发展构筑安全护栏。

  AI智能体能否拥有真正的社交能力,是留给未来的课题。在AI显著提升效率的同时,人类必须清醒认识其工具本质与能力边界,因为塑造未来的,始终是人类的智慧、理性与责任。

  本报记者 孙亚慧

  《人民日报》(2026年02月14日 第 06 版)

发布于:北京市
声明:该文观点仅代表作者本人,搜狐系信息发布平台,搜狐仅提供信息存储空间服务。
用户反馈 合作

Copyright © 2023 Sohu All Rights Reserved

搜狐公司 版权所有