人工智能伦理是一个问题。 了解如何保持道德
已发表: 2022-04-28人工智能 (AI) 在我们的日常生活中变得无处不在。
无论您是否意识到,人工智能都内置于您经常使用的许多技术中。 当 Netflix 推荐您可能喜欢的节目,或者 Google 建议您从您通常起飞的机场在线预订旅行时,人工智能就涉及到了。
事实上,当今 91% 的企业都希望投资人工智能。 虽然人工智能看起来技术性很强,接近科幻水平,但它最终只是一种工具。 和任何工具一样,它可以用于好或坏。 因此,随着人工智能承担越来越复杂的任务,确保为正确使用建立一个道德框架非常重要。
让我们更深入地探讨一下围绕人工智能伦理的关键问题,一些伦理人工智能的例子,最重要的是,如何确保在商业环境中使用人工智能时伦理得到尊重。
人工智能中的伦理是什么?
人工智能伦理是一套指导和指导人工智能技术的开发和使用的道德原则。 因为人工智能所做的事情通常需要人类智慧,所以它需要道德准则和人类决策一样多。 如果没有道德的人工智能法规,使用这项技术使不当行为长期存在的可能性很高。
许多行业大量使用人工智能,包括金融、医疗保健、旅游、客户服务、社交媒体和交通。 由于其在众多行业中的实用性不断增长,人工智能技术对世界的各个方面都具有深远的影响,因此需要受到监管。
当然,现在需要不同级别的治理,具体取决于部署 AI 的行业和环境。 除非使用道德框架,否则使用 AI 确定家庭平面图的机器人吸尘器不太可能彻底改变世界。 如果不实施道德准则,需要识别行人的自动驾驶汽车,或确定最有可能获得贷款批准的人的算法,可以并且将会对社会产生深远影响。
通过确定 AI 的首要道德问题、咨询道德 AI 示例并考虑以道德方式使用 AI 的最佳实践,您可以确保您的组织在使用 AI 的正确轨道上。
人工智能的主要伦理问题是什么?
如前所述,关键的道德问题因行业、背景和潜在影响程度而异。 但总的来说,人工智能最大的伦理问题是人工智能偏见、人工智能可能取代人类工作的担忧、隐私问题以及使用人工智能进行欺骗或操纵。 让我们更详细地了解它们。
人工智能中的偏见
当人工智能承担复杂的任务并完成繁重的工作时,不要忘记人类对人工智能进行了编程和训练来执行这些任务。 人们有偏见。 例如,如果以白人男性为主的数据科学家收集以白人男性为主的数据,他们设计的 AI 可以复制他们的偏见。
但这实际上并不是人工智能偏见的最常见来源。 更常见的是,用于训练 AI 模型的数据可能存在偏差。 例如,如果收集的数据仅来自统计上的多数,则它本质上是有偏差的。
佐治亚理工学院最近对自动驾驶汽车物体识别的研究就是一个令人痛心的例子。 研究发现,深色皮肤的行人比浅色皮肤的行人被击中的频率高出约 5%。 他们发现,用于训练 AI 模型的数据很可能是不公平的根源:数据集包含大约 3.5 倍的肤色较浅的人的示例,因此 AI 模型可以更好地识别他们。 当涉及到像自动驾驶汽车撞人这样具有潜在危险的事情时,这种看似很小的差异可能会产生致命的后果。
从好的方面来说,人工智能和机器学习 (ML) 模型的好处是可以修改它们所训练的数据集,并且只要投入足够的努力,它们就可以在很大程度上变得不偏不倚。 相比之下,让人们大规模地做出完全不偏不倚的决定是不可行的。
人工智能取代工作
历史上几乎每一项技术创新都被指责为取代工作岗位,而迄今为止,从未发生过这种情况。 尽管人工智能看起来很先进,但人工智能不会很快取代人类或他们的工作。
早在 1970 年代,自动柜员机 (ATM) 被引入,人们担心银行员工会大规模失业。 现实恰恰相反。 由于现在需要较少的收银员来经营银行分行,银行能够增加分行的数量和整体出纳工作的数量。 他们可以用更少的钱来做这件事,因为 ATM 可以处理简单的日常任务,比如处理支票存款和提取现金。
这反映在人工智能及其应用程序目前正在发生的事情中。 一个例子是当人工智能首次被引入来理解和模仿人类语言时。 随着聊天机器人和智能虚拟助理 (IVA) 取代人类客户服务代理,人们感到恐慌。 现实情况是,人工智能驱动的自动化非常有用,但人工智能不太可能真正取代人类。
同样,ATM 处理不需要人工干预的平凡任务,人工智能驱动的聊天机器人和 IVA 可以处理简单、重复的请求,甚至使用自然语言处理来理解自然语言中的问题,以提供帮助,上下文答案。
但是最复杂的查询仍然需要人工干预。 人工智能驱动的自动化可能在某些方面受到限制,但影响可能是巨大的。 人工智能驱动的虚拟代理可将客户服务费用降低多达 30%,聊天机器人可以处理多达 80% 的日常任务和客户问题。
人工智能的未来实际上是人类和人工智能驱动的机器人一起工作,机器人处理简单的任务,人类专注于更复杂的事情。
人工智能和隐私
也许对人工智能伦理最有效的担忧是隐私。 隐私在《联合国人权宣言》中被确认为一项基本人权,各种人工智能应用都可能对其构成真正的威胁。 监控摄像头、智能手机和互联网等技术使收集个人数据变得更加容易。 当公司对收集和存储数据的原因和方式不透明时,隐私就会受到威胁。
例如,面部识别由于许多原因而引起争议。 一个原因是该技术如何识别和存储图像。 未经明确同意而受到监控是许多人认为不道德的人工智能应用之一。 事实上,欧盟委员会禁止在公共场所使用面部识别技术,直到可以实施足够的道德控制。
围绕人工智能制定道德隐私法规的挑战在于,人们通常愿意放弃一些个人信息以获得某种程度的个性化。 这是客户服务和营销的一大趋势,这是有充分理由的。
80%
当品牌提供个性化体验时,消费者更有可能购买。
资料来源:厄普西隆
例如,杂货店或药店根据过去的购买情况提供优惠券,或者旅游公司根据消费者的位置提供优惠。
这些个人数据有助于 AI 及时交付消费者想要的个性化内容。 尽管如此,如果没有适当的数据清理协议,这些数据仍有可能被处理并出售给第三方公司并用于非预期目的。
例如,现在臭名昭著的剑桥分析丑闻涉及为特朗普竞选活动工作的政治咨询公司,该公司出售了数千万 Facebook 用户的私人数据。 这些第三方公司也更容易受到网络攻击和数据泄露,这意味着您的私人信息可能会进一步落入坏人之手。

具有讽刺意味的是,人工智能是数据保护的绝佳解决方案。 人工智能的自我学习能力意味着人工智能驱动的程序可以检测到通常会导致安全漏洞的恶意病毒或模式。 这意味着通过实施人工智能,组织可以在信息被盗之前主动检测数据泄露或其他类型的数据安全攻击的企图。
使用人工智能进行欺骗和操纵
使用人工智能来延续错误信息是另一个主要的道德问题。 机器学习模型可以轻松生成与事实不符的文本,这意味着可以在几秒钟内创建假新闻文章或假摘要,并通过与真实新闻文章相同的渠道进行分发。
社交媒体在 2016 年大选期间对假新闻传播的影响程度很好地说明了这一点,使 Facebook 成为道德人工智能的焦点。 纽约大学和斯坦福大学研究人员 2017 年的一项研究表明,Facebook 上最受欢迎的假新闻故事比最受欢迎的主流新闻故事更频繁地被分享。 事实上,这种错误信息能够在没有 Facebook 监管的情况下传播,可能会影响像总统选举这样重要的事情的结果,这非常令人不安。
人工智能还能够创建虚假录音以及合成图像和视频,其中现有图像或视频中的某人被其他人替换。 这些虚假的相似之处被称为“deepfakes”,极具说服力。
当人工智能被用来故意以这种方式欺骗时,它让个人有责任辨别什么是真实的,无论是由于缺乏技能还是缺乏意志,我们已经看到人类并不总是能够确定什么是真实的。真实与否。
如何合乎道德地使用人工智能
面对 AI 带来的所有挑战,您可能想知道在组织中实施 AI 作为解决方案时如何降低风险。 幸运的是,有一些最佳实践可以在商业环境中合乎道德地使用人工智能。
围绕人工智能伦理的教育和意识
首先让您和您的同龄人了解 AI 的功能、挑战和局限性。 与其吓唬人们或完全忽略不道德地使用人工智能的可能性,不如确保每个人都了解风险并知道如何减轻风险,这是朝着正确方向迈出的第一步。
下一步是创建一套您的组织必须遵守的道德准则。 最后,由于人工智能中的道德难以量化,因此请定期检查以确保实现目标并遵循流程。
采用以人为本的 AI 方法
采取以人为本的方法意味着控制偏见。 首先,确保您的数据没有偏差(如上面提到的自动驾驶汽车示例)。 第二,使其具有包容性。 在美国,软件程序员人口大约是 64% 的男性和 62% 的白人。
这意味着开发塑造社会运作方式的算法的人不一定代表该社会的多样性。 通过采用包容性的方法来招聘和扩大从事 AI 技术工作的团队的多样性,您可以确保您创建的 AI 反映了它为之创建的世界。
在所有 AI 用例中优先考虑透明度和安全性
当人工智能涉及数据收集或存储时,必须让您的用户或客户了解他们的数据是如何存储的、数据的用途以及他们从共享数据中获得的好处。 这种透明度对于与客户建立信任至关重要。 通过这种方式,遵守道德 AI 框架可以被视为为您的业务创造积极情绪,而不是限制性监管。
道德人工智能的例子
尽管人工智能是一个相对较新的领域,但在该领域已有数十年历史的科技巨头和认识到干预和监管必要性的客观第三方已经创建了一个框架,您可以根据该框架调整自己组织的政策。
激发道德 AI 的框架
一些公正的第三方已经认识到有必要为人工智能的道德使用制定指导方针,并确保其使用造福社会。
经济合作与发展组织 (OECD) 是一个国际组织,致力于为更美好的生活制定更好的战略。 他们制定了经合组织人工智能原则,提倡使用创新、值得信赖、尊重人权和民主价值观的人工智能。
联合国 (UN) 还制定了一个道德人工智能框架,讨论人工智能如何成为一种强大的工具,可以用于善,但有可能以与联合国价值观不一致的方式被使用并与之背道而驰。 它建议需要制定一套指导方针、政策或道德准则,以确保联合国对人工智能的使用符合其道德价值观。
企业和道德人工智能
除了客观的第三方之外,该领域的最大领导者还制定了自己的准则,以合乎道德地使用人工智能。
例如,谷歌制定了人工智能原则,形成了指导人工智能在其研究和产品中的开发和使用的道德宪章。 微软不仅制定了负责任的 AI 原则,并将其付诸实践以指导微软的所有 AI 创新,而且还创建了 AI 商学院来帮助其他公司制定自己的 AI 支持政策。
但你不必在硅谷就可以倡导道德人工智能。 一些较小的人工智能公司也纷纷效仿,并开始将道德规范作为其驱动价值观的一部分。
营利性企业也可以通过多种方式被认证为道德和可持续发展,例如 B Corp 认证,该认证验证了一个组织将企业用作向善的力量。
多家营利性 AI 公司已加入 B Corp 标准,这表明 AI 永远是一种新兴趋势。 虽然这种类型的认证并不是人工智能公司独有的,但它确实表明了对道德行为的承诺,更多的科技公司可以而且应该寻求认证。
人工智能向善
在讨论人工智能伦理时,重点更多地放在可能的负面人工智能用例和影响上,但人工智能确实做了很多好事。 重要的是要记住,人工智能技术不仅是一个潜在问题,而且是解决世界上许多最大问题的方法。
有人工智能可以预测气候变化的影响并提出应对措施; 机器人外科医生可以执行或协助需要比人类更精确的手术。
人工智能辅助农业技术正在提高作物产量,同时减少作物产量浪费。 甚至还有像 AI for Good 这样的非营利组织,专门致力于让 AI 成为具有全球影响力的力量。 尽管看起来很自然,但人工智能让简单的日常任务变得更容易,比如导航交通或询问 Siri 天气。
正确的道德规范让人工智能变得更好
人工智能已成为融入您日常生活的强大工具。 您几乎所有的服务和设备都使用 AI 来让您的生活更轻松或更高效。 当然,虽然恶意使用人工智能是可能的,但绝大多数公司都有道德原则,以尽可能减轻负面影响。
只要遵循最佳实践,人工智能就有可能改善几乎每个行业,从医疗保健到教育等等。 创建这些人工智能模型的人要确保他们牢记道德规范,并不断质疑他们创造的东西如何使整个社会受益。
当您将 AI 视为扩展人类智能而不是取代它的一种方式时,它似乎并不那么复杂或可怕。 通过正确的道德框架,很容易看出它将如何使世界变得更美好。
将人工智能集成到您的日常功能中,并使用人工智能软件自动执行任务。