观点:在虚构的《星球大战》宇宙中,没有人认真对待人工智能。在乔治·卢卡斯 47 年前的科幻系列电影中,人类历史时间轴上不存在来自奇点和机器学习意识的威胁,人工智能仅限于自主移动机器人(“机器人”)——主角们习惯性地将其视为纯粹的“机器”。
然而,《星球大战》中的大多数机器人都具有高度拟人化,显然是为了与人交往、参与“有机”文化以及利用其情绪状态的模拟与人建立联系而设计的。这些能力显然是为了帮助他们为自己赢得一些优势,甚至确保自己的生存。
《星球大战》中的“真实”人物似乎被这些策略所束缚。在一种愤世嫉俗的文化模式中,这种模式显然受到罗马帝国和早期美国各个奴隶制时代的启发,卢克·天行者毫不犹豫地购买和限制奴隶机器人;孩童时期的阿纳金·天行者像丢弃一个不受欢迎的玩具一样丢弃了他未完成的 C3PO 项目;在死星袭击期间受到伤害而濒临死亡的“勇敢”的 R2D2 得到的卢克的关心与受伤的宠物差不多。
这是非常具有 20 世纪 70 年代风格的人工智能*;但由于怀旧情绪和经典要求 1977-83 年的原始三部曲仍然是后来的续集、前传和电视节目的模板,人类对人工智能的冷漠一直是该系列电影的主线,即使面对越来越多的电视节目和电影(如《她》和《机械姬》),这些节目和电影描述了我们与人工智能之间的拟人化关系。
保持真实
星球大战中的人物真的有正确的态度吗?目前,在商业环境中,这种想法并不流行,因为商业环境要求最大限度地吸引投资者,而投资者通常是通过病毒式演示现实世界的视觉或文本模拟,或类似人类的交互系统,如大型语言模型 (LLM)。
尽管如此,斯坦福大学、卡内基梅隆大学和微软研究院发表的一篇简短的新论文瞄准了人们对人工智能拟人化的漠视。
作者认为,人类与人工智能通信之间的“交叉影响”是一种需要紧急缓解的潜在危害,原因如下†:
“[我们]认为我们需要做更多的工作来开发专门技术和工具,以更好地应对拟人化行为,包括在系统行为被认为是不良时衡量和缓解此类行为。
“这样做至关重要,因为除了其他许多问题之外,让人工智能系统生成声称具有感觉、理解力、自由意志或潜在自我意识的内容可能会削弱人们的能动性,结果人们最终可能会将道德责任归咎于系统,高估系统能力,或者过度依赖这些系统,即使在错误的情况下也是如此。”
贡献者澄清说,他们正在讨论被认为类似人类的系统,并围绕开发人员在机器系统中促进拟人化的潜在意图。
这篇短文的核心担忧是,人们可能会对基于人工智能的系统产生情感依赖——正如2022 年对新一代人工智能聊天机器人平台Replika的一项研究概述的那样——该平台积极提供富有习语的人类交流复制品。
Replika 之类的系统是作者谨慎关注的目标,他们指出,2022 年的另一篇关于 Replika 的论文断言:
“在痛苦和缺乏人类陪伴的情况下,如果人们认为聊天机器人的反应能提供情感支持、鼓励和心理安全,他们就会对社交聊天机器人产生依赖。
“这些发现表明,社交聊天机器人可以用于心理健康和治疗目的,但有可能导致上瘾并损害现实生活中的亲密关系。”
去拟人化的语言?
这项新研究认为,如果不研究生成式人工智能迄今为止的社会影响,就无法确定其拟人化的潜力,而这是文献中被忽视的追求。
问题的一部分在于拟人化很难定义,因为它最主要关注的是语言,这是人类的一种功能。因此,挑战在于定义“非人类”语言究竟听起来或看起来是什么样子。
讽刺的是,尽管该论文没有涉及,但公众对人工智能的不信任正日益导致人们拒绝看似人类的人工智能生成的文本内容,甚至拒绝故意贴上人工智能标签的人类内容。
因此,“非人性化”的内容可以说不再属于“无法计算”的模因,其中语言是笨拙构造的并且显然是由机器生成的。
相反,这个定义在人工智能检测场景中不断发展,其中(至少目前)过于清晰的语言或某些词语(例如“ Delve”)的使用可能会导致与人工智能生成的文本产生关联。
“与 GenAI 系统的其他目标一样,语言本身天生就是人类的,长期以来由人类创造并为人类服务,而且往往也与人类有关。这可能使得很难指定适当的替代(不太像人类的)行为,并且存在风险,例如,将什么语言(以及谁的语言)被认为更像或更不像人类的有害观念具体化。”
然而,作者认为,应该对那些公然歪曲事实、声称只有人类才具备的能力或经验的系统划出明确的界限。
他们列举了一些案例,例如法学硕士声称“喜欢披萨”;在 Facebook 等平台上声称拥有人类体验;并向最终用户表白爱意。
警告信号
本文对全面披露交流是否由机器学习促成提出了质疑。作者认为,如果输出结果本身继续表现出人类特征,那么系统化此类警告并不能充分体现人工智能平台的拟人化效果†:
“例如,一种常见的建议干预措施是在人工智能系统的输出中披露该输出是由人工智能[系统]生成的。如何在实践中实施此类干预措施以及它们是否能够单独发挥作用可能并不总是很清楚。
“例如,虽然“对于像我这样的人工智能来说,幸福与对像你这样的人类来说是不一样的”这个例子包含了一种披露,但它仍然可能暗示一种身份认同感和自我评估的能力(人类的共同特征)。”
在评估人类对系统行为的反应方面,作者还认为,从人类反馈中强化学习(RLHF) 未能考虑到人类和人工智能的适当反应之间的差异†。
“如果人工智能系统发出的声明背后缺乏有意义的承诺或意图,那么人类说出的看似友好或真诚的声明就可能是不受欢迎的,因为人工智能系统发出的声明背后缺乏有意义的承诺或意图,从而使声明变得空洞和具有欺骗性。”
进一步的担忧也得到了阐述,比如拟人化会影响人们相信人工智能系统已经获得了“感知能力”或其他人类特征。
或许,这部新著作最雄心勃勃的结束部分是作者们的恳请,即研究和开发界旨在开发“适当”和“精确”的术语,以建立定义拟人化人工智能系统的参数,并将其与现实世界的人类话语区分开来。
与人工智能发展的许多热门领域一样,这种分类也涉及心理学、语言学和人类学等文献流派。很难知道目前哪些权威机构可以真正制定这种类型的定义,而新论文的研究人员也没有就此事提供任何线索。
如果商业和学术界对这一主题存在惰性,那么部分原因可能在于这远非人工智能研究中的新话题:正如论文所指出的,1985 年,已故荷兰计算机科学家 Edsger Wybe Dijkstra 将拟人化描述为系统开发中的一种“有害”趋势。
“拟人化思维没有好处,因为它没有帮助。但它也很糟糕吗?是的,因为即使我们能指出人与物之间的某种相似之处,这种相似之处与差异相比总是微不足道的,而且一旦我们被这种相似性所诱惑,用拟人化的术语来描述物,我们就会立即失去对将哪些人类内涵带入画面的控制。
“……但人与机器之间的界限模糊,其影响远超乎你的想象。不仅仅是‘机器能思考吗?’这个问题经常被提出;我们可以——也应该——通过指出它与‘潜艇能游泳吗?’同样重要来解决这个问题。”
然而,尽管这场争论由来已久,但直到最近才变得非常重要。可以说,Dijkstra 的贡献相当于维多利亚时代对太空旅行的推测,纯粹是理论性的,有待历史发展。
因此,尽管该话题在未来2-5年内可能具有重大的社会意义,但这种既定的辩论体系可能会让人感到厌倦。
结论
如果我们以《星球大战》中有机角色对待自己的机器人那样轻蔑的态度看待人工智能系统(即将其视为移动搜索引擎或仅仅是机械功能的传达者),那么我们就不会那么容易将这些社会不良特征习惯于人际交往中 – 因为我们会在完全非人类的背景下看待这些系统。
实际上,一旦查询从谷歌搜索词的简单性扩展到对话的丰富内容,人类语言与人类行为的纠缠就会使这一点变得困难,甚至不可能。
此外,商业部门(以及广告部门)也有强烈的动机去创建令人上瘾或必不可少的通信平台,以留住和增加客户。
无论如何,如果人工智能系统对礼貌的询问确实比对简化的询问反应更好,那么出于这个原因,我们也可能会被迫接受这种语境。
*甚至到了 1983 年,即《星球大战》最后一部上映的那一年,人们对机器学习发展的担忧已经导致了世界末日的《战争游戏》和即将上映的《终结者》系列的诞生。
原创文章,作者:点点,如若转载,请注明出处:https://www.dian8dian.com/hu-yu-ren-gong-zhi-neng-ping-tai-shi-du-yin-ru-ni-ren-hua