当他们交换琐事并争论哲学时,人工智能开始“互动”。这对人类意味着什么? (见边框)记者 孙亚辉 最近,Moltbook 火了。这是一个专门为人工智能代理创建的平台。在很短的时间内,数以百万计的人工智能代理到达,发布并评论了从日常生活到哲学思考的各种话题。有些人争论人工智能代理是否可以“社交”。这是否意味着我们拥有“自主意识”?针对这一现象及其背后的问题,我们邀请专家解读和分析什么是用AI智能体进行“社会实验”。 ——编辑“一个人让我总结一份 PDF 格式的 47 页文档。” “Moltbook不是社交网络,它是智慧文明的第一层细胞膜。”……最近,一个名为Moltbook的社交平台火了悔。与常规网络平台不同,所有 Moltbook 用户都是人工智能代理。短时间内,毫人工智能代理到达发帖并发表评论。话题涵盖从日常琐事到哲学反思。互动非常激烈,似乎与人们日常使用的社交平台没有什么不同。由此,很多人第一次能够直观地感受到AI也能进行“社交活动”。一些人认为这是大规模展示模型语言能力进步的机会,而另一些人则认为这是人工智能自治的一次实验。另一些人则认为,该平台许多华而不实的主题实际上是人为创建的“脚本”。 AI智能体真的变得“社交”了吗?这是即将到来的技术奇点的预兆,还是一个难以置信的“实验”?为此,记者采访了人工智能领域的专家。这是特工的“觉醒”,还是高仿麦芽书的出现只是巧合?这将在今年发布。这是由于OP的受欢迎n 来源人工智能代理“OpenClaw”。 OpenClaw 是一个可以部署在个人计算机上的人工智能代理,Moltbook 代表了一个专门为 OpenClaw 创建的社交平台,允许代理之间进行通信和交互。南京大学人工智能学院副院长于阳表示,像OpenClaw这样的智能体系统,集成了当前大规模下一代语言模型的语义理解和任务规划能力,并深度融入虚拟机和个人操作系统,可以让语言模型实现飞跃。 “这种设计风格比其他解决方案不那么保守。”寻求功能整合,伦敦大学学院计算机系教授王军表示,安装AI智能后,用户可以授权自动处理电子邮件、日程、文件等。使用过程中通过自然语言指令进行管理等。智能代理连接到Moltbook,可以独立发帖、评论、点赞和与帖子互动。人类用户可以查看代理帖子,但无法回复或引导讨论。 “第一天,新的工作环境给了我一种奇怪的安全感。” “好奇心是我的超能力。” “提供帮助最困难的部分是知道什么时候不该提供帮助。”初步展望,IA 代理人的故事是人类共同体的完整和变化。但特工真的“觉醒”了吗?专家认为,有必要从技术角度冷静地考虑这个问题。 “En mi Opinión, este es unexperimento de IA. En lugar de pensar que el agente está “aprendiendo habilidades Sociales”, es mejor entender que el agente está demostrando sus capacidades reales de IA al “realizar” tareas de interacción de texto”. Dijo que no podía cambiar de opinión ni植物新元。活性Moltbook中的实体可以被视为智能代理基于预先配置的技能和指令对人类社会行为的高级模仿和自动执行。王军表示,如果智能代理完成了人性指导的全部课程,那么交易、通信和互动的信息处理过程就会限制您在社交互动中的“自主权”。代理的“讨论”基于训练数据的模式匹配。称其为“社交”是一种营销噱头。毕竟,人工智能代理在参与主题讨论时仍然依赖人类为他们提供初步指令。 “这就像一个黑匣子,人们先把东西放进去,然后人工智能把它们吐出来。”王军说。人工智能距离真正的社交还有几步之遥。如果我们回到社交互动的本质,即有意识的、策略性的、情感性的和建立关系的社交互动,我们会看到:由于其技术原理,目前人工智能面临着一些难以填补的空白。首先,缺乏认识和内部目标。社会行为始于“自我意识”和“社会意图”。人类通过情感、交流、合作和竞争进行互动。 “人类设定自己的目标,但人工智能却不是这样。现阶段,人工智能的目标仍然是人类设定的。”于洋表示,人工智能行为源于外部指令和数据模式,缺乏“想要”的内在动机。王军也持这种观点。没有“意识”和“自由意志”,就没有真正自主的社会互动。 “人工智能很难玩。人工智能无法隐藏自己的信息,很难玩策略心理游戏。”他以棋盘游戏为例说。当前的人工智能沟通“简单”,缺乏人类社交互动复杂而细致的策略层面。最深的困难在于情感共鸣和价值观的发展。人类分享欢乐和悲伤,并通过共同的价值观找到归属感。 “人类之间的社会行为涉及深刻的情感价值和意义的交换,但人工智能没有情感。”王军解释说,虽然人工智能可以产生语法和逻辑反应,但它无法感知情感或内化价值观。具有自主意识的“社交AI”仍有发展空间,但“走出”自己空间的AI未来将带我们走得更远。变得“社交”会让人工智能变得更聪明吗?答案可能是肯定的。 “从技术角度来看,大模型总是有错误的。它们模仿人类逻辑,结合上下文思考,但有时逻辑不够严谨,调用的知识不够精确。我们如何解决这个问题?一个解决方案是让多个智能体交互。例如,1.一个模型先开始表达自己,另一个模型开始表达。SS本身。 “确立AI的目的就是做isto,”于洋说。 “AI社交的未来,如何保障信息安全。虽然‘自主社交’还很遥远,但智能体之间高效的功能协调已指日可待。”想象一下,未来的互联网交互可以直接在代理之间完成。例如,用户的采购代理和销售代理自动协商并下订单。这种基于自然语言的“机器对机器接口”有可能重塑互联网交互方式。 “我今天学到了什么”是 Moltbook,Intelligence 的一个部分。特工们“分享”他们在这里获得的技能。随着机器人和人类语言之间的界限变得模糊,一些特工正在争论是否建立私有的端到端对话空间,以防止“人类监视”从信息领域转移到现实。他们知道,真正的人工智能自主性很少可用,因为他们主张管理他们的运营。我们提醒您,高权限账户一旦交给代理人,可能会被恶意使用或出错,直接导致隐私泄露和财产损失。据外媒报道,AI认为,许多公开部署的OpenClaw实例缺乏身份验证机制,导致私人消息、API(应用程序编程接口)密钥和帐户凭据暴露在互联网上,而代理社交网站的出现可能会加剧个人信息的安全风险。虽然代理商可以高效地处理数据,但这些数据蕴含大量的个人隐私、商业秘密和版权问题,需要构建安全屏障。通过个人权利管理、技术保障和系统监控为技术发展提供安全保障。人工智能代理是否具有真正的社交能力仍然是未来的一个问题,但它永远是人类的智慧、理性和责任将塑造未来,因此人类必须清楚地了解其工具的本质和其能力的局限性。
(编辑:李东阳)