当前位置:首页资讯零知识证明如何让人工智能更加公平?

零知识证明如何让人工智能更加公平?

你能相信你的人工智能没有偏见吗?最近的一篇研究论文表明,这有点复杂。不幸的是,偏见不仅仅是一个缺陷——如果没有适当的加密保护,它就会成为一种持续存在的特性。

伦敦帝国理工学院2024 年 9 月的一项研究表明,零知识证明(ZKP) 如何帮助公司验证其机器学习 (ML) 模型是否平等对待所有人口群体,同时仍保持模型详细信息和用户数据的私密性。 

零知识证明是一种加密方法,它使一方能够向另一方证明某个陈述是真实的,而无需透露该陈述有效性之外的任何其他信息。然而,在定义“公平性”时,我们又开启了一个全新的难题。

零知识证明如何让人工智能更加公平?

机器学习偏见

在机器学习模型中,偏见的表现方式截然不同。它可能导致信用评分服务根据一个人的朋友和社区的信用评分对一个人进行不同的评级,这本质上可能具有歧视性。它还可以促使人工智能图像生成器将教皇和古希腊人显示为不同种族的人,就像谷歌的人工智能工具 Gemini去年  臭名昭著地做的那样。

在现实生活中,很容易发现不公平的机器学习 (ML) 模型。如果该模型因为人们的朋友是谁而剥夺他们的贷款或信用,那就是歧视。如果它以公平的名义修改历史或对特定人群进行不同对待以进行过度纠正,那也是歧视。这两种情况都会破坏人们对这些系统的信任。

假设一家银行使用 ML 模型来审批贷款。ZKP 可以证明该模型不会对任何人群产生偏见,而无需暴露敏感的客户数据或专有模型详细信息。借助 ZK 和 ML,银行可以证明他们没有系统地歧视某个种族群体。与当今政府对私人数据的低效审计相比,这种证明将是实时且持续的。  

理想的机器学习模型是什么?它不会修改历史,也不会根据人们的背景区别对待他们。人工智能必须遵守反歧视法,例如 1964 年的《美国民权法案》。问题在于如何将其融入人工智能并使其可验证。 

ZKP提供了保证这种遵守的技术途径。

人工智能有偏见(但并非必然如此)

在处理机器学习时,我们需要确保任何公平性证明都能保证底层机器学习模型和训练数据的机密性。它们需要保护知识产权和用户隐私,同时为用户提供足够的访问权限,让他们知道他们的模型没有歧视性。 

这不是一件容易的事。ZKP 提供了一种可验证的解决方案。 

ZKML(零知识机器学习)是我们使用零知识证明来验证 ML 模型是否符合包装盒上所标示的内容的方式。ZKML 将零知识加密与机器学习相结合,创建了无需暴露底层模型或数据即可验证 ai 属性的系统。 我们还可以采用这一概念并使用 ZKP 来识别平等、公平对待每个人的 ML 模型。 

以前,使用 ZKP 来证明 AI 公平性非常有限,因为它只能专注于 ML 流程的一个阶段。这使得不诚实的模型提供者能够构建满足公平性要求的数据集,即使模型未能满足公平性要求。ZKP 还会引入不切实际的计算需求和漫长的等待时间来生成公平性证明。

最近几个月,ZK 框架已经实现了 ZKP 的扩展,以确定具有数千万个参数的模型的端到端公平性,并以可证明的安全性进行操作。  

价值万亿美元的问题:我们如何衡量人工智能是否公平?

让我们分析一下三个最常见的群体公平定义:人口平等、机会平等和预测平等。 

人口均等性意味着特定预测的概率在不同群体(例如种族或性别)中是相同的。多元化、公平和包容部门经常将其用作衡量标准,以试图反映公司员工队伍中的人口结构。它不是 ML 模型的理想公平指标,因为期望每个群体都会有相同的结果是不现实的。

机会均等对大多数人来说都很容易理解。它给予每个群体同等的机会获得积极的结果,前提是他们具备同等的资格。它不是为了结果而优化——只是每个人口群体都应该有同等的机会获得工作或住房贷款。 

同样,预测平等性衡量的是机器学习模型是否对不同的人口统计数据做出相同的准确度的预测,因此没有人仅仅因为属于某个群体而受到惩罚。 

在这两种情况下,机器学习模型都不是出于公平原因而干预,而只是为了确保群体不会受到任何形式的歧视。这是一个非常明智的解决办法。

无论如何,公平正在成为标准

过去一年,美国政府和其他国家就人工智能公平性和保护公众免受机器学习偏见影响发表了声明和要求。现在,随着美国新政府的成立,人工智能公平性可能会以不同的方式处理,重点将重新转向机会平等,而不是公平。 

随着政治格局的变化,人工智能的公平性定义也在发生变化,在以公平为中心和以机会为中心的范式之间转变。我们欢迎平等对待每个人而不加以评判的机器学习模型。零知识证明可以作为一种严密的方式来验证机器学习模型是否在不泄露私人数据的情况下做到了这一点。  

虽然多年来 ZKP 面临着许多可扩展性挑战,但这项技术终于变得可以承受主流用例的负担。我们可以使用 ZKP 来验证训练数据的完整性、保护隐私,并确保我们使用的模型与它们声称的一致。 

随着机器学习模型越来越融入我们的日常生活,我们未来的就业前景、大学录取和抵押贷款都取决于它们,我们需要更多的保证,相信人工智能会公平地对待我们。然而,我们是否都能就公平的定义达成一致,则完全是另一个问题。

温馨提示:

文章标题:零知识证明如何让人工智能更加公平?

文章链接:https://www.qkl112.com/49595.html

更新时间:2025年04月04日

本站声明:该内容来源于网络,若侵犯到您的权益,请联系我们,我们将第一时间处理。
资讯

富达通过新IRA计划让投资者直接投资加密货币

2025-4-3 9:11:16

资讯

全球贸易紧张局势正在增强比特币的战略吸引力

2025-4-5 8:04:17

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索