金沙js0888_首頁(欢迎您)

  • <td id="dgejl"><strike id="dgejl"></strike></td>
        1. 为什么人工智能是有缺陷的?

          作者: 闻数起舞 2020-11-03 10:45:53

          人工智能已经成为每个人生活中不可或缺的一部分。 从YouTube建议之类的简单任务到诸如生成可治愈疾病的药物之类的复杂的救生任务,它已经无处不在。 它以比我们意识到的更多的方式影响着我们的生活。

          但是,人工智能公平吗? 不,绝对不是。

          定义一个公平的AI很难。 这是我能想到的最好的解释。 如果输出独立于已经受到社会歧视影响的特定任务的敏感参数(例如性别,种族,性别,宗教信仰,残疾等),则给定的AI模型是公平的。

          在此文章中,我将撰写有关AI偏差,AI偏差的现实示例以及解决方法的文章。

          问题

          AI偏差是由于用于训练模型的数据固有的偏见引起的,从而导致社会歧视。 这导致缺乏平等机会。

          例如,假设我的任务是创建一个模型,以位置为参数来计算一个人的信用评分。 某些种族集中在某些地方。 这将使我的模型在种族上偏向那些种族群体,从而在获得信用卡和银行贷款时影响他们。

          偏爱的AI模型加剧了当前的社会歧视,并为压迫铺平了道路。

          现实生活中AI偏见的例子

          这是AI偏见的一些现实例子:

          • COMPAS:COMPAS(替代性制裁的更正罪犯管理分析)是美国法院用来判断被告(被控犯罪的人)成为累犯(重犯先前犯罪的行为)的软件。 由于数据的严重偏差,该模型预测的黑人违犯累犯率是白人的两倍。
          • 亚马逊的招聘:2014年,亚马逊开发了一个AI招聘系统,以简化其招聘流程。 由于用于训练模型的数据来自过去10年,由于技术行业中男性占主导地位,因此大多数被选为男性的申请人被发现具有歧视性。 亚马逊在2018年取消了该系统。
          • 美国医疗保健:美国医疗保健系统使用的AI模型为黑人分配的相同疾病发病率低于白人。 这是因为该模型针对成本进行了优化,并且由于人们认为黑人支付能力较差,因此该模型将其健康风险等级低于白人。 这导致黑人的医疗保健标准降低。
          • Twitter图像裁剪:2020年9月,Twitter用户发现图像裁剪算法更喜欢白脸而不是黑脸。 即,当将宽高比与预览窗口不同的图像发布到Twitter时,该算法会裁剪图像的一部分,并仅显示图像的特定部分作为预览。 这种AI模型经常在预览窗口中以白色和黑色面孔显示白色面孔。
          • Facebook的广告算法:2019年,Facebook允许广告商根据种族,性别和宗教信仰来定位人群。 这导致护理和秘书等工作针对女性,而看门人和出租车司机等工作针对男性,尤其是有色男人。 该模型还了解到,向白人展示房地产广告时,其点击率更高,从而导致向少数群体提供房地产广告的情况有所减少。

          这些只是AI偏见的一些常见示例。 无论是否有开发人员的知识,都有许多不公平的AI做法实例。

          那么如何解决?

          为什么人工智能是有缺陷的?

          > Photo by Yancy Min on Unsplash

          迈向公平AI的第一步就是承认这个问题。 人工智能是不完美的。 数据不完美。 我们的算法不完善。 我们的技术不完善。 假装没有问题,就不可能找到解决方案。

          其次,问问自己这个解决方案是否需要AI。

          不要害怕在没有机器学习的情况下发布产品-Google

          存在一些不依赖于数据的问题。 诸如发现被告再犯的可能性之类的任务更多地取决于情感而不是数据。

          第三,遵循负责任的AI实践。 我在下面添加了Google负责任的AI实践指南中的要点。

          负责任的AI实践:

          • 使用以人为本的设计方法:内置适当披露的设计模型,并在部署之前合并测试人员的反馈。
          • 确定多个度量标准以评估培训和监视:使用适合任务的不同度量标准,以了解不同错误和经验之间的权衡。 这些指标可以是来自消费者的反馈,误报率和误报率等。
          • 如有可能,请检查您的原始数据:AI模型反映了用于训练模型的数据。 如果数据有问题,则模型也将有问题。 尝试获得平衡的数据。
          • 了解模型的局限性:经过训练可检测相关性的模型不一定有助于建立因果关系。 例如,一个模型可能会得知购买篮球鞋的人通常平均会更高,但这并不意味着购买篮球鞋的用户会因此变高。
          • 测试:进行严格的单元测试以确定模型中的故障。
          • 部署后继续监视和更新模型:考虑用户反馈,并在部署后根据此模型定期更新模型。
          • 设计一个具有公平性和包容性具体目标的模型:与来自伦理学和社会研究领域的专家合作,以理解和解释各种观点。 尝试使您的模型尽可能公平。
          • 使用代表性的数据集来训练和测试模型:尝试评估数据的公平性。 即,寻找特征和标签之间的偏见或歧视性关联。
          • 检查是否存在不公正的偏见:从不同背景的测试人员那里获得单元测试输入。 这可以帮助确定该模型可能影响的人群。
          • 分析效果:考虑不同的指标。 一个指标的改进可能会损害另一个指标的性能。

          开发公平AI的工具

          • FATE:Microsoft提供的AI中的公平性,问责制,透明度和道德规范(FATE),由Microsoft提供评估可视化仪表板和缓解偏差算法的工具。 它主要用于比较系统的公平性和性能之间的权衡。
          • AI Fairness 360:AI Fairness 360是IBM提供的一个开源工具包,可帮助您检查,报告和减轻机器学习模型中的歧视和偏见。
          • ML Fairness Gym:ML Fairness Gym是Google提供的一种工具,用于探索机器学习系统对AI偏见的长期影响。

          结论

          在过去的几年中,公司和政府已经开始认真对待AI偏见。 许多公司已经开发了评估AI公平性的工具,并且正在竭尽全力对抗AI偏见。 尽管AI具有巨大的潜力,但对我们而言,现在要比以往任何时候都更加重要,要牢记AI系统的潜在歧视性危险并帮助开发公平的AI模型。

          人工智能 AI AI偏差
          上一篇:边缘AI新方法TinyML,超低功耗,在边缘设备进行机器学习 下一篇:如何走过人工智能转型的转折点
          评论
          取消
          暂无评论,快去成为第一个评论的人吧

          更多资讯推荐

          人工智能如何解决数据中心运营商面临的挑战

          行业专家对人工智能如何帮助解决该行业内出现的运营挑战、数据中心行业需要克服的最大障碍,以及数据中心如何利用人工智能提高效率和保持弹性进行了探讨。

          Harris ·? 1天前
          细数从Al算法到产品化落地的八大鸿沟

          AI产业要真正产生价值,推动社会发展,面临着很多的挑战。从AI算法到产品化落地存在巨大的挑战,可以总结为八大鸿沟。

          陶然 ·? 2天前
          2021年六大科技趋势预测

          下面是对2021年人工智能、云、自动化、数字化工作空间和DevOps进行的一些预测。让我们一起来期待2021年的这些重大发展。

          业路网 ·? 2天前
          陈根:人工智能,正在跨越人机情感鸿沟

          很长时间以来,是否具备情感,是区分人与机器的重要标准之一。换言之,机器是否具有情感也是机器人性化程度高低的关键因素之一。想要人工智能理解人类感情,则需要从人工智能的情感计算开始。

          陈根 ·? 2天前
          2021年AI关键趋势,AI芯片初创公司可能发生并购

          最近发布的2021 AI/ML用例调查显示情况发生了变化,有86%参与调查的人表示新冠大流行已经或将导致其所在的组织投资于新的AI计划。由于大流行引起的不确定性仍然影响所有的人,但报告仍给出了一些2021年的AI关键趋势。

          包永刚 ·? 2天前
          应对全球粮食危机 AI、5G与机器视觉联手“养鱼”

          全球粮食挑战已经成为现实难题,人工智能、机器视觉与5G网络等新兴技术能否指明新的解决方案?

          佚名 ·? 2天前
          关于机器人流程自动化不可不知的十个秘密

          机器人流程自动化会简化工作流程,将遗留系统紧密整合在一起,并使业务用户有能力解决自己的问题。但在诸多好处的背后,潜藏着一些亟需解决的问题。

          Peter Wayner ·? 3天前
          人工智能、大数据时代,普通人拿什么赚钱

          未来我们出行有无人驾驶车,吃饭有程序化小吃一条街,理发有机器人理发师,建设制造全程机械化设备……在科学高度发达、人工智能、大数据越来越完善的今天,我们已经无限接近共产主义社会。那么,作为普通人的我们,如何才能赚钱?

          归宿129305691 ·? 3天前
          Copyright?2005-2021 51CTO.COM 版权所有 未经许可 请勿转载
          金沙js0888