Gate 广场「创作者认证激励计划」开启:入驻广场,瓜分每月 $10,000 创作奖励! 
无论你是广场内容达人,还是来自其他平台的优质创作者,只要积极创作,就有机会赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励! 
参与资格: 
满足以下任一条件即可报名👇 
1️⃣ 其他平台已认证创作者 
2️⃣ 单一平台粉丝 ≥ 1000(不可多平台叠加) 
3️⃣ Gate 广场内符合粉丝与互动条件的认证创作者 
立即填写表单报名 👉 https://www.gate.com/questionnaire/7159 
✍️ 丰厚创作奖励等你拿: 
🎁 奖励一:新入驻创作者专属 $5,000 奖池 
成功入驻即可获认证徽章。 
首月发首帖(≥ 50 字或图文帖)即可得 $50 仓位体验券(限前100名)。 
🎁 奖励二:专属创作者月度奖池 $1,500 USDT 
每月发 ≥ 30 篇原创优质内容,根据发帖量、活跃天数、互动量、内容质量综合评分瓜分奖励。 
🎁 奖励三:连续活跃创作福利 
连续 3 个月活跃(每月 ≥ 30 篇内容)可获 Gate 精美周边礼包! 
🎁 奖励四:专属推广名额 
认证创作者每月可优先获得 1 次官方项目合作推广机会。 
🎁 奖励五:Gate 广场四千万级流量曝光 
【推荐关注】资源位、“优质认证创作者榜”展示、每周精选内容推荐及额外精选帖激励,多重曝光助你轻
去中心化的人工智能可能会开启一个后稀缺社会,0G Labs CEO表示
关于人工智能的讨论已经从质疑其相关性演变为关注如何提高其可靠性和效率,因为其使用变得越来越普遍。迈克尔·海因里希设想了一个未来,在这个未来中,人工智能促进了一个后稀缺社会,使个人摆脱琐碎的工作,能够追求更多的创造性活动。
数据困境:质量、来源与信任
关于人工智能(AI)的讨论已经发生了根本性的变化。现在的问题不再是它的相关性,而是如何使其在各个行业的应用变得更加可靠、透明和高效。
当前的人工智能范式,由集中式的“黑箱”模型和庞大的专有数据中心主导,面临着来自偏见和垄断控制担忧的日益压力。对于许多Web3领域的人士来说,解决方案不在于对现有系统的更严格监管,而在于对基础设施的完全去中心化。
这些强大的人工智能模型的有效性,首先由它们所训练的数据的质量和完整性决定——这是一个必须可验证和可追溯的因素,以防止系统性错误和人工智能幻觉。随着金融和医疗等行业的风险增加,建立一个无信任和透明的人工智能基础变得至关重要。
迈克尔·海因里希是一位连续创业者和斯坦福大学毕业生,他在推动建立这一基础方面处于领先地位。作为0G Labs的首席执行官,他目前正在开发他所描述的首个也是最大的AI链,目标是确保人工智能成为一种安全且可验证的公共产品。在创办了一个顶级的YCombinator支持的公司Garten,并在微软、贝恩和桥水基金工作后,海因里希现在正在将他的专业知识应用于去中心化人工智能的架构挑战(DeAI)。
海因里希强调,人工智能性能的核心在于其知识基础:数据。他解释道:“人工智能模型的有效性首先取决于它们所训练的基础数据。”高质量、平衡的数据集能够产生准确的响应,而劣质或代表性不足的数据则会导致输出质量差,并增加幻觉的可能性。
对于海因里希而言,维护这些不断更新和多样化的数据集的完整性需要对现状进行彻底的改变。他认为,导致人工智能幻觉的主要元凶是缺乏透明的来源。他的解决方案是加密的:
这个去中心化、透明的基础,加上经济激励和持续的微调,被视为系统性消除错误和算法偏见的必要机制。
除了技术修复,海因里希(Heinrich)作为福布斯40位40岁以下杰出人物之一,拥有宏观的人工智能愿景,认为人工智能应该引领一个繁荣的时代。
“在一个理想的世界里,希望能够创造出一个后稀缺社会的条件,在这个社会中,资源变得丰富,没人再需要担心做日常工作,”他说。这一转变将使个人能够“专注于更具创造性和休闲的工作”,从而实质上使每个人都能享受更多的自由时间和经济安全。
关键是,他认为去中心化的世界独特地适合推动这个未来。这些系统的美在于它们的激励机制是对齐的,为计算能力创造了一个自我平衡的经济体。如果资源的需求增加,提供它们的激励自然会上升,直到满足该需求,以平衡和无权限的方式满足对计算资源的需求。
保护人工智能:开源与激励设计
为了保护人工智能免受故意滥用——例如语音克隆诈骗和深度伪造——海因里希建议结合以人为本和架构的解决方案。首先,重点应放在教育人们如何识别用于冒充和虚假信息的人工智能诈骗和伪造品。海因里希表示:“我们需要教人们能够识别或指纹化人工智能生成的内容,以便他们能够保护自己。”
立法者也可以通过建立全球人工智能安全和伦理标准来发挥作用。虽然这不太可能消除人工智能的误用,但这样的标准“可以在一定程度上起到抑制作用。”然而,最有效的对策是融入去中心化设计:“设计激励对齐的系统可以显著减少故意的人工智能误用。”通过在链上部署和治理人工智能模型,诚实的参与者将获得奖励,而恶意行为则通过链上削减机制承担直接的经济后果。
虽然一些批评者担心开放算法的风险,但海因里希在接受Bitcoin.com News采访时热情支持这一观点,因为它提供了模型工作方式的可见性。“可验证的训练记录和不可篡改的数据轨迹可以用来确保透明度,并允许社区监督,”这直接反驳了与专有的、封闭源代码的“黑箱”模型相关的风险。
为了实现安全和低成本的人工智能未来的愿景,0G Labs 正在构建第一个“去中心化人工智能操作系统 (DeAIOS)。”
该操作系统旨在提供可验证的人工智能来源——一个高度可扩展的数据存储和可用性层,使得能够在链上存储大量人工智能数据集,确保所有数据可验证且可追溯。这种安全性和可追溯性对于在受监管行业中运作的人工智能代理至关重要。
此外,该系统具有无权限的计算市场,使得用户能够以具有竞争力的价格获得计算资源,从而实现了资源的民主化。这直接回应了与集中式云基础设施相关的高成本和供应商锁定问题。
0G Labs已经展示了在Dilocox上的技术突破,这是一种能够在去中心化的1 Gbps集群上训练超过1000亿参数的LLM框架。通过将模型拆分为更小且独立训练的部分,Dilocox在效率上比传统的分布式训练方法提高了357倍,使得大规模AI开发在去中心化数据中心之外的经济可行性得以实现。
一个更光明、更实惠的人工智能未来
最终,海因里希对去中心化AI的未来充满信心,认为这个未来将由参与驱动,并打破采用的障碍。
“这是一个人们和社区共同创造专业AI模型的地方,确保未来的AI由许多人而不仅仅是少数集中实体塑造,”他总结道。随着专有AI公司面临提价压力,DeAI的经济学和激励结构提供了一种引人注目的、更实惠的替代方案,在这里可以以更低的成本创建强大的AI模型,为一个更加开放、安全,最终更加有利的技术未来铺平道路。
常见问题