编者按:本文重点讨论多种增强隐私和安全性的技术,包括零知识证明(ZKP)、受信执行环境(TEE)、完全同态加密(FHE)等,介绍了这些技术在 AI 和数据处理中的应用,如何保护用户隐私、防止数据泄露以及提高系统安全性。文章还提到了一些案例,如 Earnifi、Opacity 和 MindV,展示了如何通过这些技术实现无风险投票、数据加密处理等,但同时这些技术面临很多挑战,如计算开销和延迟问题。
以下为原文内容(为便于阅读理解,原内容有所整编:
随着数据供需的激增,个人留下的数字足迹变得越来越广泛,使得个人信息更容易受到滥用或未经授权的访问。我们已经看到了一些个人数据泄露的案例,例如剑桥分析丑闻。
还没有跟上的人可以查看系列的第一部分,我们在其中讨论了:
·数据的重要性
·人工智能对数据需求的增长
·数据层的出现
欧洲的 GDPR、加利福尼亚州的 CCPA 以及全球其他地区的法规使得数据隐私不仅仅是一个伦理问题,而是法律要求,推动公司确保数据保护。
随着人工智能发展的激增,AI 在提升隐私保护的同时,也进一步复杂化了隐私与可验证性领域。例如,虽然 AI 可以帮助检测欺诈活动,但它也使得「深度伪造」技术得以实现,从而使得验证数字内容的真实性变得更加困难。
优点
·隐私保护的机器学习:联邦学习允许 AI 模型直接在设备上进行训练,而无需集中敏感数据,从而保护用户隐私。
·AI 可以用于匿名化或假名化数据,使得数据不易追溯到个人,同时仍然可以用于分析。
·AI 对于开发检测和减少深度伪造传播的工具至关重要,从而确保数字内容的可验证性(以及检测/验证 AI 代理的真实性)。
·AI 可以自动确保数据处理实践符合法律标准,使得验证过程更加可扩展。
挑战
·AI 系统通常需要庞大的数据集才能有效运作,但数据的使用、存储和访问方式可能不透明,这引发了隐私问题。
·有足够的数据和先进的 AI 技术后,可能会从本应匿名的数据集中重新识别出个体,破坏隐私保护。
·由于 AI 能够生成高度逼真的文本、图像或视频,区分真实和 AI 伪造的内容变得更加困难,挑战了可验证性。
·AI 模型可能被欺骗或操控(对抗性攻击),破坏数据的可验证性或 AI 系统本身的完整性(如 Freysa、Jailbreak 等情况所示)。
这些挑战推动了 AI、区块链、可验证性和隐私技术的快速发展,利用每项技术的优势。我们看到了以下技术的崛起:
·零知识证明(ZKP)
·零知识传输层安全(zkTLS)
·受信执行环境(TEE)
·完全同态加密(FHE)
1. 零知识证明(ZKP)
ZKP 允许一方向另一方证明自己知道某些信息或某个陈述是正确的,而无需透露任何超出证明本身的信息。AI 可以利用这一点来证明数据处理或决策符合某些标准,而无需透露数据本身。一个好的案例研究是 getgrass io,Grass 利用闲置的互联网带宽来收集和组织公共网页数据,用于训练 AI 模型。
Grass Network 允许用户通过浏览器扩展或应用程序贡献他们的闲置互联网带宽,这些带宽被用于抓取公共网页数据,然后将其处理成适合 AI 训练的结构化数据集。网络通过用户运行的节点来执行这个网页抓取过程。
Grass Network 强调用户隐私,只抓取公共数据,而非个人信息。它使用零知识证明来验证和保护数据的完整性和来源,防止数据损坏并确保透明度。所有的数据收集到处理的交易都通过 Solana 区块链上的主权数据汇总进行管理。
另一个好的案例研究是 zkme。
zkMe 的 zkKYC 解决方案应对了以隐私保护方式进行 KYC(了解你的客户)流程的挑战。通过利用零知识证明,zkKYC 使平台能够验证用户身份而不暴露敏感的个人信息,从而在维护合规性的同时保护用户隐私。
2.zkTLS
TLS = 标准的安全协议,提供两个通信应用程序之间的隐私和数据完整性(通常与 HTTPS 中的「s」相关)。zk + TLS = 提升数据传输中的隐私和安全性。
一个好的案例研究是 OpacityNetwork。
Opacity 使用 zkTLS 提供安全和私密的数据存储解决方案,通过集成 zkTLS,Opacity 确保用户和存储服务器之间的数据传输保持机密且防篡改,从而解决了传统云存储服务中固有的隐私问题。
使用案例—工资提前获取Earnifi 是一款据报道在应用商店排名中攀升到顶端,特别是在金融类应用中,利用了 OpacityNetwork 的 zkTLS。
·隐私:用户可以向贷款方或其他服务提供他们的收入或就业状况,而无需透露敏感的银行信息或个人资料,如银行对账单。
·安全性:zkTLS 的使用确保这些交易是安全的、经过验证的且保持私密。它避免了用户需要将全部财务数据托付给第三方。
·效率:该系统降低了与传统工资提前获取平台相关的成本和复杂性,因为传统平台可能需要繁琐的验证过程或数据共享。
3.TEE
受信执行环境(TEE)提供了正常执行环境和安全执行环境之间的硬件强制隔离。这可能是目前在 AI 代理中最著名的安全实现方式,以确保它们是完全自主的代理。被 123skely 的 aipool tee 实验所推广:一个 TEE 预售活动,社区向代理发送资金,代理根据预定规则自主发行代币。
marvin tong 的 PhalaNetwork: MEV 保护,集成 ai16zdao 的 ElizaOS,以及 Agent Kira 作为可验证的自主 AI 代理。
fleek 的一键 TEE 部署:专注于简化使用和提高开发者的可访问性。
4.FHE(完全同态加密)
一种加密形式,允许直接在加密数据上执行计算,而无需先解密数据。
一个好的案例研究是 mindnetwork xyz 及其专有的 FHE 技术/使用案例。
使用案例—FHE 重质质押层与无风险投票
FHE 重质质押层
通过使用 FHE,重质质押的资产保持加密状态,这意味着私钥从未暴露,显著减少了安全风险。这确保了隐私的同时,也验证了交易。
无风险投票(MindV)
治理投票在加密数据上进行,确保投票保持私密和安全,减少了胁迫或贿赂的风险。用户通过持有重质质押的资产获得投票权力(vFHE),从而将治理与直接资产暴露解耦。
FHE + TEE
通过结合 TEE 和 FHE,它们为 AI 处理创建了一个强大的安全层:
·TEE 保护计算环境中的操作免受外部威胁。
·FHE 确保整个过程中操作始终在加密数据上进行。
对于处理 100 百万美元至 10 亿美元+交易的机构来说,隐私和安全至关重要,以防止前置交易、黑客攻击或交易策略暴露。
对于 AI 代理而言,这种双重加密增强了隐私与安全,使其在以下领域非常有用:
·敏感训练数据隐私
·保护内部模型权重(防止反向工程/IP 盗窃)
·用户数据保护
FHE 的主要挑战仍然是由于计算密集性带来的高开销,导致能源消耗和延迟增加。目前的研究正在探索硬件加速、混合加密技术和算法优化等方法,以减少计算负担并提高效率。因此,FHE 最适合低计算、高延迟的应用。
总结
·FHE = 在加密数据上进行操作,无需解密(最强隐私保护,但最昂贵)
·TEE = 硬件,隔离环境中的安全执行(在安全性和性能之间取得平衡)
·ZKP = 证明陈述或认证身份,而不揭示底层数据(适用于证明事实/凭证)
这是一个广泛的话题,因此这不是结束。一个关键问题仍然存在:在日益精密的深度伪造时代,我们如何确保 AI 驱动的可验证性机制是真正值得信赖的?在第三部分中,我们将深入探讨:
·可验证性层
·AI 在验证数据完整性中的角色
·隐私与安全的未来发展
「原文链接」