数据矿工的博客

您现在的位置是:首页 > 数据资讯与书籍推荐 > 正文

数据资讯与书籍推荐

人工智能伦理应该像安全程序一样编程

admin2022-08-02数据资讯与书籍推荐1872
Salesforce的AI道德首席架构师表示,设计安全对于确保IT系统在开发过程中的稳健性至关重要,同样的方法应该应用于人工智能工具,以便可以负责任地、无偏见地部署这些工具。

Salesforce的 AI 道德首席架构师表示,设计安全对于确保 IT 系统在开发过程中的稳健性至关重要,同样的方法应该应用于人工智能工具,以便可以负责任地、无偏见地部署这些工具。

人工智能伦理应该像安全程序一样编程



企业在开始构思和开发人工智能 (AI) 产品时,需要从零开始思考道德问题。这将有助于确保 AI 工具可以负责任且没有偏见地实施。 


同样的方法已经被认为对网络安全产品至关重要,其中“设计安全”的开发原则将推动从一开始就评估风险和硬编码安全性的需求,因此可以在后期避免零碎的拼凑和昂贵的改造。Salesforce道德 AI 实践的首席架构师 Kathy Baxter 表示,这种思维方式现在应该应用于 AI 产品的开发,他强调组织需要满足 AI 道德的基本开发标准。 


她指出,网络安全行业有很多经验教训,自 1980 年代第一个恶意软件出现以来,该行业在过去几十年中不断发展。对于在此之前甚至不存在的行业,网络安全已经改变了公司保护其系统的方式,重点是从一开始就识别风险并制定应该实施的基本标准和法规。 


巴克斯特在接受 ZDNet 采访时表示,因此,今天的大多数组织都会制定包括员工在内的所有利益相关者都应遵守的基本安全标准。例如,Salesforce的所有新员工都必须经过一个入职培训流程,在该流程中,公司概述了对员工在网络安全实践方面的期望,例如采用强密码和使用 VPN。 


她说,这同样适用于道德规范,并补充说,公司内部有一个致力于推动这一点的内部团队。 


巴克斯特说,还有一些资源可以帮助员工评估是否应该根据公司的道德准则来执行一项任务或服务,并了解红线在哪里。例如, Salesforce的 AI 驱动的Einstein Vision永远不能用于面部识别,因此任何不知道这一点并试图销售用于此类部署的产品的销售成员都将违反公司的政策。 


她说,正如定期审查和修订网络安全实践以跟上不断变化的威胁形势一样,同样应该适用于与人工智能道德相关的政策。 


她指出,随着社会和文化随着时间的推移而发生变化,这一点至关重要,10 年前曾经被认为相关的价值观可能不再与今天一个国家的人口所持有的观点保持一致。人工智能产品需要反映这一点。 


1、数据是解决人工智能偏见的关键障碍

虽然政策可以减轻人工智能中的一些偏见风险,但仍然存在其他挑战——特别是数据访问。数量或品种的缺乏可能导致行业或细分市场的不准确表示。 


Baxter 说,这对医疗保健行业来说是一个重大挑战,尤其是在美国等没有社会化医疗或政府运营的医疗保健系统的国家。当 AI 模型通过基于一小部分人群的有限数据集进行训练时,它可能会影响医疗保健服务的提供以及为某些人群检测疾病的能力。


Salesforce用其客户的数据来训练自己的 AI 模型,它将通过从外部资源(例如用于训练其聊天机器人的语言数据)以及利用合成数据购买来填补空白。 


当被问及监管机构在推动人工智能道德方面发挥的作用时,巴克斯特表示,强制使用特定指标可能是有害的,因为围绕“可解释人工智能”的定义以及应如何实施仍然存在许多问题。 


2、数据道德

Salesforce的高管是新加坡人工智能和数据道德使用咨询委员会的成员,该委员会就与私营部门使用数据驱动技术相关的政策和治理向政府提供建议。


谈到她在理事会的经历,Baxter 说其成员很快意识到,仅定义“公平”是很复杂的,大约有两打统计定义。此外,她指出,对一个群体来说公平的事情有时对另一个群体来说不可避免地会不那么公平。 


她说,定义“可解释性”也很复杂,即使是机器学习专家也可能会根据预定义的解释误解模型的工作方式。任何使用 AI 驱动数据的人以及所有部门(例如现场代理或社会工作者)都应该容易理解设定的政策或法规。 


意识到这些问题很复杂,Baxter 表示,新加坡理事会认为建立一个框架和指南(包括工具包)会更有效,以帮助 AI 采用者了解其影响并在使用 AI 时保持透明。 

3、进展与应用

新加坡上个月发布了一个名为 AI Verify 的工具包,据称它将使企业能够展示他们对人工智能的“客观和可验证”使用。此举是政府通过技术和流程检查提高人工智能部署透明度的努力的一部分。


Baxter 敦促有必要消除人工智能系统默认公平的误解,因为它们是机器,因此没有偏见。她说,组织和政府必须努力确保人工智能的利益得到平等分配,并且其应用符合负责任的人工智能的某些标准。



翻译自:https://www.zdnet.com/article/ai-ethics-should-be-hardcoded-like-security-by-design/

发表评论

评论列表

  • 这篇文章还没有收到评论,赶紧来抢沙发吧~
展开