「什么是公平?」,就算是人类自己也没有统一的标准,它有时取决于语境。不论是在家里,还是在学校,教导小孩要公平是至关重要的,但说起来容易做起来难。正因为如此,我们要如何才能将社会上所说的「公平」的细微差别传递给AI系统呢?
什么是「公平」?就算是人类自己也没有统一的标准,它有时取决于语境。不论是在家里,还是在学校,教导小孩要公平至关重要,但说起来容易做起来难。正因为如此,要如何才能将社会上所说的「公平」的细微差别传递给人工智能(AI)系统呢?
IBM研究院的一组研究人员是着手解决该难题的先驱。IBM为开发人员推出了一款名为「AI Fairness 360」的工具包。作为这项工作的一部分,IBM为企业提供一种新的「基于云端的、偏差(bias)检测和消除服务」,企业可以使用它来测试和验证AI驱动的系统的行为。
在接受《EE Times》的电话采访时,IBM研究院院士Saska Mojsilovic告诉我们,科学家和AI从业者太过于关注AI的准确性。通常,人们关于AI的第一个问题是,「机器可以击败人类吗?」
但公平性呢?例如,AI中的公平无效可能会导致在医疗保健或自动驾驶车辆中造成灾难性后果,她说。
如果用于训练机器的数据集有偏差怎么办?如果AI无法解释它是如何做出决定的,那么如何才能验证其「正确性」?AI可以揭示在AI处理过程中数据是否被以某种方式操纵过吗?AI是否可以向我们保证其数据从未(包括处理前和处理后)受到攻击或篡改吗?简言之,是否存在AI自我反省?简单回答:没有。
Mojsilovic表示,如果不对AI用户、开发人员和从业者开放,AI系统就无法获得社会的信任。
一个更大的问题是如何教导机器什么是公平。Mojsilovic指出:「因为我们是科学家,我们做的第一件事就是分解“公平性”,我们需要从这着手。」他们将公平分解为AI实现中的指针、算法和偏差。
FSDesmc
减少整个AI生命周期的偏差。(来源:IBM)
IBM研究科学家Kush Varshney解释,其团队研究了AI算法和AI决策的偏差和公平性。「有个人的公平,也有团体的公平。我们研究了群体的不同属性——从性别到种族,还考虑了法律和监管问题。」最后,团队最终测量了30个不同的指标,以寻找数据集、AI模型和算法中的偏差。
这些发现已纳入IBM不久前推出的AI Fairness 360工具包中。IBM将其描述为「一个全面的指标开放原始码工具包,用于检查数据集和机器学习模型中不期望的偏差。」
虽然许多科学家已经在努力发现AI算法中的歧视(discrimination),但Mojsilovic说IBM的方法不同,它不仅包括发现偏差的算法,且还包括用于消除偏差的工具。
在基础层面,你必定会问:由计算机科学家来定义公平?这通常不是社会科学家的任务吗?意识到这种不协调,IBM明确表示Mojsilovic和Varshney都没有闭门造车,他们导入了许多学者和研究机构的资料。Varshney参加了由卡内基国际事务伦理委员会(Carnegie Council for Ethics in International Affair)主办的Uehiro-Carnegie-Oxford伦理会议;Mojsilovic则参加了由加州大学柏克莱分校法学院(UC Berkeley Law School)赞助的加州柏克莱AI工作组。
这一段时间以来,社会科学家一直在指出AI偏差问题。
威斯康辛大学麦迪逊分校(University of Wisconsin, Madison)新闻与大众传播学院教授Young Mie Kim解释:「AI歧视(或AI偏差)可能发生在它隐含或明确地强化现有不平等的社会秩序和偏见(例如,性别、种族、年龄、社会/经济状况等)时。」例子从抽样误差(例如,由于抽样方法的不适当或困难导致某些人口统计资料不充分)到机器训练(建模)中的人为偏差。Kim认为,即使在设计或建模中采用的「战略决策」也存在AI偏差,例如政治广告算法。
在她最近题为《算法机会:数位广告和政治参与的不平等(Algorithmic Opportunity: Digital Advertising and Inequality of Political Involvement)》的研究中,Kim展示了在基于算法的决策中,不平等是如何被强化。
技术小区(technical community)可能会争辩说「算法是中立的」或者可以「受过教育」(训练有素)。Kim指出:「也就是说,他们并不承认在算法开发的任何阶段都会出现偏差。」
不只是消费者害怕AI,许多计算机科学家也表达了担忧。威斯康辛大学计算机科学助理教授Aws Albarghouthi告诉《EE Times》:「从短期看,我担心越来越多地使用数据驱动的决策,这有可能传播偏见和不公正。从长远看,我担心AI在战争自动化方面的使用。」
AI无法解释其决策将带来持续焦虑。威斯康辛大学计算机科学助理教授Loris D'Antoni告诉我们:「现在,程序设计师开始将强大的机器学习算法作为程序设计工具箱中的工具。然而,这些算法复杂、难以预测、难以解释。例如,没人知道由此产生的机器学习模型究竟做了什么。」在他看来,自动化决策需要被理解和规范,并且可能以正规的方式进行。
对于流程的每个步骤,从训练数据和处理到测试与部署,IBM指出其工具包提供的解释可显示:在两种决策中、哪些因素倾向于支持哪一方;对推荐的信心,以及支持这种信心的因素。
IBM希望AI Fairness 360工具包将被广泛使用,以便开发人员可以为其做出贡献,帮助建立对AI的信任。与此同时,IBM将为企业提供其新的软件服务,旨在自动检测偏差并解释AI在需要做决策时,是如何做出决策的。它在IBM Cloud上运作,可协助企业管理AI系统。
IBM称,其在IBM Cloud上的公平性监控服务将与来自各种机器学习框架模型和AI构建环境(如Watson、 TensorFlow、SparkML、AWS SageMaker和AzureML)配合使用。「这意味着组织可以借力这些新控制以服务于企业使用的大多数流行的AI框架。」IBM也承诺提供定制服务,「还可对软件服务进行程序设计,以监控任何业务工作流程的独特决策因素,使其能够根据特定的组织用途进行定制。」
越来越意识到AI中算法公平性问题的AI研究界,对IBM的新产品表示欢迎。D'Antoni告诉我们:「看到公平检查技术进入业界并付诸实践,真的令人兴奋。」他并补充,「我认为该工具将使AI研究界更加意识到该问题的重要性。」
Albarghouthi称IBM的努力「开创了好的开始」。但是为了让AI Fairness 360工具包真正变得有效,应该使许多需要理解它的开发人员能用到它。Albarghouthi解释,该工具需要「与研究界探索的最新公平技术并共同发展。」
他并告诫:「如果研究和理解超越了目前的定义和技术,那么该工具很可能会停滞不前。」
最后,任何成全或破坏AI公平性工具包的因素都会回溯到如何定义公平这一棘手问题。Mojsilovic承认,在不同应用中,公平有不同表现。正如人类对公平有不同看法,使用者、客户和公众可能会根据情况对公平有不同评判。
当被问及AI公平性工具包的缺陷时,Albarghouthi表示,问题之一是「存在于公平性定义的选择,以及其是否足够。」毕竟,公平「在很大程度上取决于领域、其敏感性和涉及的监管。」他补充:「我确信,这些工具只有在其使用成为机器学习管道的标准部分时才有效。」
D'Antoni表达了他自己的担忧。「有很多关于公平和偏差的定义,很难将它们全部考虑在内,且其实现也并非能毕其功于一役。」换句话说,「公平定义往往是“冲突的”,存在的不可能出现的结果表明,某些公平概念不能同时诉诸实施。」
此外,还有一个事实是「机器学习小区目前尚未接受过如何了解现有的公平和偏差定义的含义以及如何使用它们,」他补充。
Kim同意。「对这种“AI偏见”问题的认识是抵抗AI歧视的第一步,也是最重要的一步。」她指出:「在人类社会中,我们提出了一些减轻不平等和歧视的政策和法规。但问题是AI仍是个秘密,与大多数情况一样,数据和建模是专有的,这使得任何公共政策或监管讨论/辩论更加困难。」
理解了定义公平性时的复杂性和权衡取舍之后,IBM研究人员认为,优先事项应该是AI实践和实施的透明度。
Mojsilovic建议由AI服务开发商和供货商完成并自愿发布供货商的符合性声明(她称之为情况说明书)。「以提高其服务的透明度并产生对它们的信任。」她将其比作「食品营养卷标」,或「器具信息表」。
业界需要有关部署在不同服务中的AI系统信息的标准。IBM敏锐地意识到这不会在一夜之间发生,正如营养标签花了很长时间才逐步发展起来一样,情况说明书的开发可能是个漫长过程。Mojsilovic提醒,业界才刚刚开始其AI之旅。
与IBM类似,研究界也在与AI公平性问题斗争,在这个悬而未决的领域,IBM的AI Fairness工具包似乎具有开创性。D'Antoni告诉我们:「我并未注意到现有用于AI模型的通用公平性检查工具。」
另一方面,他补充:「研究界提出了许多令人兴奋的原型工具。例如,Kramer等人提出的FairTest和来自我们自己团队的FairSquare。」
(参考原文:Teaching Machines ‘Fairness’ ,by Junko Yoshida)
微信扫一扫,一键转发
关注“国际电子商情” 微信公众号
2025年3月16日,中共中央办公厅、国务院办公厅印发《提振消费专项行动方案》并发出通知。其中涉及到“人工智能+”行动,促进“人工智能+消费”。
本文从观察到的两个有趣的市场与宏观趋势出发,来观览这高速发展、属于人类技术与生产力变革史的后续四五十年。
"以后只有用我们的鸿蒙PC了。”
“最近,存储现货市场出现止跌的信号,预计在2025年Q2,NAND产品的价格将率先企稳,2025年Q3整体存储价格有机会迎来回升。”
国际电子商情讯,据《华尔街日报》最新报道,美国政府正酝酿对中国AI公司DeepSeek采取一系列限制措施,其中最为引人注目的是可能禁止在政府设备上使用DeepSeek聊天机器人。美国政府此举引发了各界的关注。
到2029年,Agentic AI将取代80%的人工客服。
早在2019年,笔者就在一篇文章中表示,即便当时游戏业务占到NVIDIA总营收的54%,数据中心业务的高速增长势头却也已经表现得非常明确。而根据NVIDIA Q4 FY2025(截止2025年1月26日)季报,与数据中心业务的大热相较,NVIDIA的游戏业务(Gaming)当季营收为25.4亿美元,不说连计算加速卡的零头都没到,还环比跌了22%,同比跌11%。
安森美已准备好“应对长期波动”。
黄仁勋夸爆DeepSeek!
国际电子商情讯,北京时间今日凌晨,天风国际证券分析师郭明錤在其社交平台X发文称,2025年初首批Intel/IFS 18A先进制程生产的Panther Lake工程样品的生产良率不到20%-30%。他指出,该生产良率对英特尔下半年要量产的目标而言并非易事。
苹果称,这是其有史以来最大规模的支出承诺。
电子产品供应链正面临需求激增、短缺和中断的日益严峻的压力。未来十年,强化数据分析将重塑运营,提升预测能力、效率和应变能力。
美通社消息,3月14日,“2025英飞凌消费、计算与通讯创新大会”(ICIC2025)在深圳举行。本届大会汇聚600多位业界精
近日,湖南省工信厅发布了《2025年湖南电子信息制造业重点项目名单》,涵盖先进计算、音视频、新一代半导体、人
3月15日,质鼎集团公众号消息,惠科东莞平板显示集群电子商务项目二期正式开工。
富士康、台积电、广达、华硕、联发科、友达光电等中国台湾20家电子企业2024年第四季度和全年财报汇总。
近年来,LED显示屏市场持续演进。回顾2024年,行业呈现出哪些发展态势?展望2025年及未来,市场又将面临哪些机遇与
近日,索尼正式发布新一代RGBLED背光技术系统,可实现4000尼特峰值亮度。索尼计划该系统将于2025年开始量产,并将
AI芯片是半导体最大的增长点,先进封装则是制造AI芯片的关键技术。此前英伟达H100成本约3000美元,而用先进封装
截止2024年底,17家欧美固态电池企业融资总额已突破42亿美元。
曾几何时,中国半导体几乎不断有大基金投资、大项目上马,以及美国制裁的新闻。长期处于聚光灯下,中国半导体成为
Dynabook在退出十年后宣布重返美国消费市场。
Canalys最新数据显示,受到消费需求激增8%的推动,2024年第四季度中国大陆的PC市场开始复苏,同比增长2%。
根据TrendForce集邦咨询最新调查,2024年第四季由于Apple(苹果)手机生产进入高峰,以及中国部分地方提供消费补贴
德州仪器近日推出了全球超小型 MCU,进一步扩展了品类齐全的 Arm® Cortex®-M0+ MSPM0 MCU 产品组合。
创新是企业持续发展最大的价值。
“闪迪(Sandisk)又回来了!”在3月12日的存储年度盛会CFMS MemoryS 2025上,闪迪公司全球产品副总裁Eric Spa
摩尔斯微电子推出合规的Wi-Fi HaLow片上系统(Soc),开启欧洲连接技术新纪元。超低功耗、远距离连接功能现已为
CFMS | MemoryS 2025已圆满落幕,期间包括三星电子、长江存储、铠侠、美光、闪迪、高通、Arm、慧荣科技、S
Hyperlux™ ID iToF 系列将深度测量距离提升至最远 30 米,提高工业环境中的生产效率和安全性
26TB大容量CMR HDD助力WD Red Pro与G-DRIVE/G-RAID系列专业级产品矩阵,赋能数据存储拓展与生产力跃升
全新一代MCU可以满足各种区域控制架构和电气化系统需求,助力汽车制造商向软件定义汽车(SDV)过渡。
将出色的高
聚洵半导体科技(上海)有限公司(Gainsil Semiconductor Technology)于2016年成立于上海张江科学城,是一家全球
领域新成果领域新成果4月必逛电子展!AI、人形机器人、低空飞行、汽车、新能源、半导体六大热门新赛道,来NEPCO
后量子加密技术帮助保护数字基础设施免受量子计算机在将来带来的潜在威胁。
英飞凌坚信低碳化和数字化是未来十年的关键驱动力,半导体在应对能源挑战和推动数字化转型中扮演着重要角色。
点击查看更多
北京科能广告有限公司深圳分公司 版权所有
分享到微信
分享到微博
分享到QQ空间
推荐使用浏览器内置分享
分享至朋友圈