Sean Ren是南加州大学(USC)计算机科学副教授,也是 Andrew and Erna Viterbi 早期职业主席。他领导智能与知识发现 (INK) 研究实验室,并在USC 信息科学研究所(ISI)、USC NLP 小组和USC 机器学习中心任职。
他的研究重点是创建可通用的自然语言处理 (NLP) 系统、利用常识增强 AI 以及提高模型透明度。除了在南加州大学工作外,Ren 还为艾伦人工智能研究所(AI2) 做出贡献,并曾为 Snapchat 提供咨询。他获得了伊利诺伊大学香槟分校的计算机科学博士学位。
Sean 还是Sahara AI的首席执行官兼联合创始人,Sahara AI 是一个去中心化的 AI 区块链平台,旨在通过构建协作式 AI 经济来颠覆中心化的 AI 格局。
是什么促使您共同创立 Sahara AI,以及该公司的去中心化平台如何解决围绕人工智能所有权的道德问题?
Sahara Labs 成立于 2023 年 4 月。人工智能正在以前所未有的速度改变我们的世界。从个性化推荐和虚拟助手到高级医疗诊断、财务预测和工业自动化,人工智能的影响力无处不在,而且还在不断增长。然而,这种快速的进步引发了人们对控制、公平性和可访问性的重大担忧。随着人工智能变得越来越强大,人们开始质疑谁控制这些系统以及如何使用它们。大型科技公司主导着人工智能领域,它们经常收集大量个人贡献的公共数据,却没有足够的补偿或透明度。用户经常与人工智能驱动的服务进行交互,却不知道他们的数据是如何被使用的,也不知道人工智能输出的信息的来源。这种权力集中和缺乏透明度可能导致算法有偏见、侵犯隐私以及无法平等地获得人工智能的好处。作为一名经验丰富的人工智能研究人员和从业者,我们的团队在现有的人工智能领域看到了这一挑战,并于 2022 年第二季度(GPT 时代之前)开始集思广益,这是最早的解决方案之一。最终,我们决定实现我们当前的愿景和使命。
在 Sahara AI,我们设想了一种不同的方法——在 AI 开发周期的所有阶段,AI 都是开放、公平的,并且对每个人都有益。我们的去中心化 AI 区块链平台允许每个人(从个人开发者到大型企业)参与 AI 进步并从中受益。这确保所有贡献者都得到公平的补偿,维护数据和模型的主权,并且可以安全地创建、共享和交易 AI 资产,同时保护隐私并促进包容性。
作为南加州大学的副教授,您的学术背景如何影响您在 Sahara Labs 的人工智能所有权和治理方式?
我的学术研究主要集中在构建可通用的自然语言处理 (NLP) 系统,该系统能够处理各种语言任务和情况。这涉及开发新算法和数据集,使 NLP 模型的构建和维护更具成本效益,为 AI 模型提供常识性推理,并提高其透明度和可靠性以建立用户信任。这些原则直接影响了我在 Sahara Labs 的 AI 所有权和治理方法。在 Sahara AI,我们优先考虑让 AI 更易于访问、更透明、更值得信赖 – 这些价值观源于我的学术工作。
随着人工智能不断重塑行业,您如何看待公平薪酬模式的发展,Sahara AI 如何为人工智能价值链的贡献者赋能?
公平的报酬是我们愿景的核心。随着人工智能重塑行业,各级贡献者(无论他们是提供数据、构建模型还是提供计算资源)都应获得公平的报酬,这一点至关重要。我们的平台培育了一种协作的人工智能经济,贡献者将根据他们创造的价值获得相应的奖励。使用区块链,我们确保报酬透明且可追溯,明确谁做出了什么贡献以及如何获得报酬。这种模式赋予人工智能价值链的贡献者权力,让他们可以控制自己的资产并确保公平的支出。
我们的去中心化市场允许直接进行点对点交易,从而消除中介机构,创造更具包容性、更易于访问的经济。随着人工智能的不断发展,我们看到了向这种去中心化、公平的模式转变,各种规模的贡献者都可以蓬勃发展。
Sahara AI 强调“AI 主权”。您能详细解释一下这意味着什么,以及它将如何影响 AI 生态系统中的用户、开发者和企业吗?
AI 主权是我们平台的基本原则。这意味着每个人(无论是最终用户、开发人员还是企业)都对其 AI 资产拥有完全的所有权和控制权。在当今的中心化 AI 系统中,所有权通常转移到大公司,导致创造者失去控制权和隐私。Sahara AI 通过使用区块链将完全主权赋予开发或贡献各种 AI 资产的人,从而改变了这种动态。AI 主权培育了一个开放、去中心化的生态系统,个人和小团队可以与大型实体竞争,同时保持对其知识产权的控制权。这使小型项目能够进行创新,而不必担心失去所有权或竞争优势,而开发人员可以按照自己的方式将他们的工作货币化。
您的工作重点是人工智能的透明度和信任。Sahara AI 如何将这些价值观融入其区块链平台的开发中?
区块链技术使我们能够确保平台上的每项操作(从 AI 资产的开发到部署和货币化)都是完全透明的,并记录在不可篡改的账本上。这创建了一个任何人都可以审核的可验证记录,确保 AI 资产得到合乎道德和公平的处理。信任的建立是因为用户不再需要依赖中央权威来管理他们的贡献。相反,Sahara AI 的去中心化性质确保没有任何一个实体拥有控制权,每个参与者都可以看到他们的工作是如何被使用的。这种透明系统促进了整个平台的问责制和信任,这对于创建合乎道德的 AI 生态系统至关重要。
鉴于您与微软、亚马逊和 Snap 等公司有着广泛的合作,您如何看待大型科技公司在塑造去中心化 AI 未来方面的作用?
大型科技公司在推动人工智能发展方面发挥着关键作用,但它们的集中式方法限制了小型企业获取资源和创新的机会。我认为去中心化人工智能是一种补充这些大公司工作的方式,同时促进更广泛的获取和公平性。去中心化平台为小型开发者和企业提供了平等竞争的工具,提供了中心化系统中通常不具备的一定程度的自主权和所有权。虽然大公司将继续在人工智能创新中发挥重要作用,但像 Sahara AI 这样的去中心化人工智能平台将使生态系统民主化,确保人工智能的好处在整个社区中更均匀地分配。
随着人工智能的不断发展,您预见到维护人工智能的道德标准将面临哪些挑战?Sahara AI 将如何应对这些挑战?
维护 AI 道德标准是一项持续的挑战,尤其是在 AI 变得越来越普遍的情况下。数据隐私、透明度和公平报酬等问题需要不断监督。在 Sahara AI,我们通过去中心化治理模式应对这些挑战。
我们平台的治理将由社区推动,关键决策将通过 Sahara DAO(去中心化自治组织)透明地做出。对生态系统做出重大贡献的用户有权决定平台的发展方向,并提出符合社区价值观的倡议并进行投票。
Sahara 基金会将在支持这一治理模式方面发挥关键作用,指导 DAO 的形成阶段,确保其发展成为一个完全去中心化、社区驱动的机构。通过将这种去中心化治理结构嵌入平台,我们确保维护道德标准,并确保贡献者在决策过程中得到公平的代表。
您能否向我们详细介绍一下普罗米修斯计划,以及它如何邀请社区通过 Sahara AI 塑造去中心化 AI 的未来?
普罗米修斯计划是我们邀请社区积极参与塑造去中心化 AI 未来的举措。参与者,我们称之为现代普罗米修斯,可以提前使用我们的工具和平台,让他们通过反馈直接影响开发过程。该计划以协作为宗旨 – 贡献者帮助我们完善和改进平台,作为回报,他们因他们的投入和努力而获得奖励。这是我们愿景的重要组成部分,即建立一个开放、协作的 AI 生态系统,社区在塑造其未来方面发挥着核心作用。
作为学术界和人工智能行业的领导者,您如何平衡您的研究工作和 Sahara AI 的创业责任?
平衡学术和创业需要谨慎管理,但这两个角色相辅相成。我的研究为我们在 Sahara AI 所做的工作提供了许多信息。同时,构建去中心化 AI 平台的实际挑战为我的研究提供了新的视角。我很幸运能与这两个领域的优秀团队合作,让我能够在不影响质量的情况下为这两个领域做出贡献。这种协同作用确保了 Sahara AI 立足于前沿研究,同时应对现实世界的挑战。
人工智能治理的未来最让您兴奋的是什么?我们如何确保在未来几年里,人工智能的道德实践仍然是优先事项?
借助 Sahara AI 这样的去中心化系统,我们可以创建一种更加民主和透明的治理形式,贡献者可以直接控制他们的 AI 资产。这确保了道德实践融入到系统本身。为了将道德 AI 实践作为优先事项,我们需要关注透明度、问责制和包容性——确保所有利益相关者,无论规模大小,都能在塑造 AI 的未来方面拥有发言权。通过授权社区管理 AI 开发,我们可以构建一个道德 AI 成为标准而不是例外的未来。
原创文章,作者:点点,如若转载,请注明出处:https://www.dian8dian.com/nan-jia-zhou-da-xue-ji-suan-ji-ke-xue-fu-jiao-shou-sean-ren