全球数字财富领导者

AI公平的实现

2023-06-10 09:21:06
金色财经
金色财经
关注
0
0
获赞
粉丝
喜欢 0 0收藏举报
— 分享 —
摘要:AI已经应用在人们生活的方方面面,如何摒弃偏见,实现AI公平将是AI能在人们的经济生活中正确发挥作用的重大挑战

大数据和人工智能的崛起,为我们的生活带来了许多的便利。当我们打开新闻客户端,看到的不再是千篇一律的编辑推荐,而是AI引擎对我们日常喜好进行学习后精心准备的新闻;当我们打开电商 App,看到的不再是商家想要卖什么,而是我们想要买什么;当我们打开旅游网站,看到的也不再是那些人满为患的旅游经典而是为我们量身定制的旅游路线。但同时,这也为我们带来了一些隐忧——由于每个人看到的内容都是不同的,那么AI是否会把更贵的产品卖给我,或是更偏激的观点推送给我?事实上,这是完全有可能的,在国内甚至已经有了一个专有名词来形容这一现象“大数据杀熟”。但有时,算法不止决定了商品的价格和推送的内容,随着人工智能被应用于反恐、征税、案件预审、医疗、保险等公共领域,算法的判断还决定着我们每个人的公民福祉。公平是AI训练中不可忽略的重要因素,如何让确保AI训练的公平呢?

1686284347669.jpg

●AI训练输出不公平来源-----使用不平衡的数据集训练机器学习模型

在许多情况下,获取代表性数据可能过于困难。同时公平性算法对于输入的变化特别敏感。数据挑战包括在数据标注时的错误、测量误差、偏差和样本不平衡。数据标签错误是实现公平机器学习严重障碍之一。数据类别不平衡也会影响不公平性学习效果。只有通过尽量准确的标注数据,以及针对训练数据的特点设计机器学习算法实现公平性。同时,建设评估公平性算法的数据集也很关键。

如果使用不平衡的数据集训练机器学习模型,比如一个包含远多于肤色较浅的人的图像的数据集,则当模型部署在现实世界中时,该模型的计算存在严重风险。但这只是问题的一部分。麻省理工学院的研究人员发现,在图像识别任务中流行的机器学习模型在对不平衡数据进行训练时实际上会编码偏差。即使使用先进的公平性提升技术,甚至在使用平衡数据集重新训练模型时,模型中的这种偏差也无法在以后修复。

●解决方案----公平性嵌入到机器学习模型中

公平性表示学习包含数据和模型的公平性表示。数据的公平性表示,是指一方面能够表达出包含数据点相关的大量有用信息,同时这一表示是公平的,即包含有关敏感属性信息,目的是防止机器学习算法产生歧视性行为。模型的公平性表示,是指把公平性嵌入到机器学习模型中,成为不可分割的一部分。从算法的基本定义出发,用输入、过程及输出不同阶段描述解决问题的策略机制。这使模型即使在不公平数据上进行训练也能产生公平的输出,这一点尤其重要,因为很少有平衡良好的数据集用于机器学习。

     Meta(前facebook)在经历AI标注歧视事件与Oasis lab建立合作伙伴关系,并推出一个安全多方计算 (SMPC) 来评估 Meta 产品的公平性,同时保护人们的隐私。由第三方调查提供商收集的数据将以某种方式与第三方服务商秘密共享,这样服务商或 Meta 都无法获悉用户的调查回答。然后,促进者使用来自 AI 模型的加密计算数据计算测量值,这些数据由 Meta 以加密方式共享,每个促进者的组合、去识别化结果由 Meta 重组为聚合公平性测量结果。该平台使用的加密技术使 Meta 能够衡量偏见和公平性,同时为贡献敏感人口统计测量数据的个人提供高水平的隐私保护。

index_d.jpg

●结语

 AI已经应用在人们生活的方方面面,如何摒弃偏见,实现AI公平将是AI能在人们的经济生活中正确发挥作用的重大挑战。Meta 和Oasis Lab合作的新平台是AI公平的新的尝试。期待他们的合作,为更公平、更包容的社会构建负责任的人工智能和负责任的数据使用。

参考资料:https://www.oasisprotocol.org/blog/web3-responsible-ai-by-oasis

https://ai.facebook.com/blog/assessing-fairness-of-our-products-while-protecting-peoples-privacy/)

来源:金色财经

敬告读者:本文为转载发布,不代表本网站赞同其观点和对其真实性负责。FX168财经仅提供信息发布平台,文章或有细微删改。
go