人工智能倫理是一個問題。 了解如何保持道德

已發表: 2022-04-28

人工智能 (AI) 在我們的日常生活中變得無處不在。

無論您是否意識到,人工智能都內置於您經常使用的許多技術中。 當 Netflix 推薦您可能喜歡的節目,或者 Google 建議您從您通常起飛的機場在線預訂旅行時,人工智能就涉及到了。

事實上,當今 91% 的企業都希望投資人工智能。 雖然人工智能看起來技術性很強,接近科幻水平,但它最終只是一種工具。 和任何工具一樣,它可以用於好或壞。 因此,隨著人工智能承擔越來越複雜的任務,確保為正確使用建立一個道德框架非常重要。

讓我們更深入地探討一下圍繞人工智能倫理的關鍵問題,一些倫理人工智能的例子,最重要的是,如何確保在商業環境中使用人工智能時倫理得到尊重。

人工智能中的倫理是什麼?

人工智能倫理是一套指導和指導人工智能技術的開發和使用的道德原則。 因為人工智能所做的事情通常需要人類智慧,所以它需要道德準則和人類決策一樣多。 如果沒有道德的人工智能法規,使用這項技術使不當行為長期存在的可能性很高。

許多行業大量使用人工智能,包括金融、醫療保健、旅遊、客戶服務、社交媒體和交通。 由於其在眾多行業中的實用性不斷增長,人工智能技術對世界的各個方面都具有深遠的影響,因此需要受到監管。

當然,現在需要不同級別的治理,具體取決於部署 AI 的行業和環境。 除非使用道德框架,否則使用 AI 確定家庭平面圖的機器人吸塵器不太可能徹底改變世界。 如果不實施道德準則,需要識別行人的自動駕駛汽車,或確定最有可能獲得貸款批准的人的算法,可以並且將會對社會產生深遠影響。

通過確定 AI 的首要道德問題、諮詢道德 AI 示例並考慮以道德方式使用 AI 的最佳實踐,您可以確保您的組織在使用 AI 的正確軌道上。

人工智能的主要倫理問題是什麼?

如前所述,關鍵的道德問題因行業、背景和潛在影響程度而異。 但總的來說,人工智能最大的倫理問題是人工智能偏見、人工智能可能取代人類工作的擔憂、隱私問題以及使用人工智能進行欺騙或操縱。 讓我們更詳細地了解它們。

人工智能中的偏見

當人工智能承擔複雜的任務並完成繁重的工作時,不要忘記人類對人工智能進行了編程和訓練來執行這些任務。 人們有偏見。 例如,如果以白人男性為主的數據科學家收集以白人男性為主的數據,他們設計的 AI 可以復制他們的偏見。

但這實際上並不是人工智能偏見的最常見來源。 更常見的是,用於訓練 AI 模型的數據可能存在偏差。 例如,如果收集的數據僅來自統計上的多數,則它本質上是有偏差的。

佐治亞理工學院最近對自動駕駛汽車物體識別的研究就是一個令人痛心的例子。 研究發現,深色皮膚的行人比淺色皮膚的行人被擊中的頻率高出約 5%。 他們發現,用於訓練 AI 模型的數據很可能是不公平的根源:數據集包含大約 3.5 倍的膚色較淺的人的示例,因此 AI 模型可以更好地識別他們。 當涉及到像自動駕駛汽車撞人這樣具有潛在危險的事情時,這種看似很小的差異可能會產生致命的後果。

從好的方面來說,人工智能和機器學習 (ML) 模型的好處是可以修改它們所訓練的數據集,並且只要投入足夠的努力,它們就可以在很大程度上變得不偏不倚。 相比之下,讓人們大規模地做出完全不偏不倚的決定是不可行的。

人工智能取代工作

歷史上幾乎每一項技術創新都被指責為取代工作崗位,而迄今為止,從未發生過這種情況。 儘管人工智能看起來很先進,但人工智能不會很快取代人類或他們的工作。

早在 1970 年代,自動櫃員機 (ATM) 被引入,人們擔心銀行員工會大規模失業。 現實恰恰相反。 由於現在需要較少的收銀員來經營銀行分行,銀行能夠增加分行的數量和整體出納工作的數量。 他們可以用更少的錢來做這件事,因為 ATM 可以處理簡單的日常任務,比如處理支票存款和提取現金。

這反映在人工智能及其應用程序目前正在發生的事情中。 一個例子是當人工智能首次被引入來理解和模仿人類語言時。 隨著聊天機器人和智能虛擬助理 (IVA) 取代人類客戶服務代理,人們感到恐慌。 現實情況是,人工智能驅動的自動化非常有用,但人工智能不太可能真正取代人類。

同樣,ATM 處理不需要人工干預的平凡任務,人工智能驅動的聊天機器人和 IVA 可以處理簡單、重複的請求,甚至使用自然語言處理來理解自然語言中的問題,以提供幫助,上下文答案。

但是最複雜的查詢仍然需要人工干預。 人工智能驅動的自動化可能在某些方面受到限制,但影響可能是巨大的。 人工智能驅動的虛擬代理可將客戶服務費用降低多達 30%,聊天機器人可以處理多達 80% 的日常任務和客戶問題。

人工智能的未來實際上是人類和人工智能驅動的機器人一起工作,機器人處理簡單的任務,人類專注於更複雜的事情。

人工智能和隱私

也許對人工智能倫理最有效的擔憂是隱私。 隱私在《聯合國人權宣言》中被確認為一項基本人權,各種人工智能應用都可能對其構成真正的威脅。 監控攝像頭、智能手機和互聯網等技術使收集個人數據變得更加容易。 當公司對收集和存儲數據的原因和方式不透明時,隱私就會受到威脅。

例如,面部識別由於許多原因而引起爭議。 一個原因是該技術如何識別和存儲圖像。 未經明確同意而受到監控是許多人認為不道德的人工智能應用之一。 事實上,歐盟委員會禁止在公共場所使用面部識別技術,直到可以實施足夠的道德控制。

圍繞人工智能製定道德隱私法規的挑戰在於,人們通常願意放棄一些個人信息以獲得某種程度的個性化。 這是客戶服務和營銷的一大趨勢,這是有充分理由的。

80%

當品牌提供個性化體驗時,消費者更有可能購買。

資料來源:厄普西隆

例如,雜貨店或藥店根據過去的購買情況提供優惠券,或者旅遊公司根據消費者的位置提供優惠。

這些個人數據有助於 AI 及時交付消費者想要的個性化內容。 儘管如此,如果沒有適當的數據清理協議,這些數據仍有可能被處理並出售給第三方公司並用於非預期目的。

例如,現在臭名昭著的劍橋分析醜聞涉及為特朗普競選活動工作的政治諮詢公司,該公司出售了數千萬 Facebook 用戶的私人數據。 這些第三方公司也更容易受到網絡攻擊和數據洩露,這意味著您的私人信息可能會進一步落入壞人之手。

具有諷刺意味的是,人工智能是數據保護的絕佳解決方案。 人工智能的自我學習能力意味著人工智能驅動的程序可以檢測到通常會導致安全漏洞的惡意病毒或模式。 這意味著通過實施人工智能,組織可以在信息被盜之前主動檢測數據洩露或其他類型的數據安全攻擊的企圖。

使用人工智能進行欺騙和操縱

使用人工智能來延續錯誤信息是另一個主要的道德問題。 機器學習模型可以輕鬆生成與事實不符的文本,這意味著可以在幾秒鐘內創建假新聞文章或假摘要,並通過與真實新聞文章相同的渠道進行分發。

社交媒體在 2016 年大選期間對假新聞傳播的影響程度很好地說明了這一點,使 Facebook 成為道德人工智能的焦點。 紐約大學和斯坦福大學研究人員 2017 年的一項研究表明,Facebook 上最受歡迎的假新聞故事比最受歡迎的主流新聞故事更頻繁地被分享。 事實上,這種錯誤信息能夠在沒有 Facebook 監管的情況下傳播,可能會影響像總統選舉這樣重要的事情的結果,這非常令人不安。

人工智能還能夠創建虛假錄音以及合成圖像和視頻,其中現有圖像或視頻中的某人被其他人替換。 這些虛假的相似之處被稱為“deepfakes”,極具說服力。

當人工智能被用來故意以這種方式欺騙時,它讓個人有責任辨別什麼是真實的,無論是由於缺乏技能還是缺乏意志,我們已經看到人類並不總是能夠確定什麼是真實的。真實與否。

如何合乎道德地使用人工智能

面對 AI 帶來的所有挑戰,您可能想知道在組織中實施 AI 作為解決方案時如何降低風險。 幸運的是,有一些最佳實踐可以在商業環境中合乎道德地使用人工智能。

圍繞人工智能倫理的教育和意識

首先讓您和您的同齡人了解 AI 的功能、挑戰和局限性。 與其嚇唬人們或完全忽略不道德地使用人工智能的可能性,不如確保每個人都了解風險並知道如何減輕風險,這是朝著正確方向邁出的第一步。

下一步是創建一套您的組織必須遵守的道德準則。 最後,由於人工智能中的道德難以量化,因此請定期檢查以確保實現目標並遵循流程。

採用以人為本的 AI 方法

採取以人為本的方法意味著控制偏見。 首先,確保您的數據沒有偏差(如上面提到的自動駕駛汽車示例)。 第二,使其具有包容性。 在美國,軟件程序員人口大約是 64% 的男性和 62% 的白人。

這意味著開發塑造社會運作方式的算法的人不一定代表該社會的多樣性。 通過採用包容性的方法來招聘和擴大從事 AI 技術工作的團隊的多樣性,您可以確保您創建的 AI 反映了它為之創建的世界。

在所有 AI 用例中優先考慮透明度和安全性

當人工智能涉及數據收集或存儲時,必須讓您的用戶或客戶了解他們的數據是如何存儲的、數據的用途以及他們從共享數據中獲得的好處。 這種透明度對於與客戶建立信任至關重要。 通過這種方式,遵守道德 AI 框架可以被視為為您的業務創造積極情緒,而不是限制性監管。

道德人工智能的例子

儘管人工智能是一個相對較新的領域,但在該領域已有數十年曆史的科技巨頭和認識到干預和監管必要性的客觀第三方已經創建了一個框架,您可以根據該框架調整自己組織的政策。

激發道德 AI 的框架

一些公正的第三方已經認識到有必要為人工智能的道德使用制定指導方針,並確保其使用造福社會。

經濟合作與發展組織 (OECD) 是一個國際組織,致力於為更美好的生活制定更好的戰略。 他們制定了經合組織人工智能原則,提倡使用創新、值得信賴、尊重人權和民主價值觀的人工智能。

聯合國 (UN) 還制定了一個道德人工智能框架,討論人工智能如何成為一種強大的工具,可以用於善,但有可能以與聯合國價值觀不一致的方式被使用並與之背道而馳。 它建議需要製定一套指導方針、政策或道德準則,以確保聯合國對人工智能的使用符合其道德價值觀。

企業和道德人工智能

除了客觀的第三方之外,該領域的最大領導者還制定了自己的準則,以合乎道德地使用人工智能。

例如,谷歌制定了人工智能原則,形成了指導人工智能在其研究和產品中的開發和使用的道德憲章。 微軟不僅制定了負責任的 AI 原則,並將其付諸實踐以指導微軟的所有 AI 創新,而且還創建了 AI 商學院來幫助其他公司製定自己的 AI 支持政策。

但你不必在矽谷就可以倡導道德人工智能。 一些較小的人工智能公司也紛紛效仿,並開始將道德規範作為其驅動價值觀的一部分。

營利性企業也可以通過多種方式被認證為道德和可持續發展,例如 B Corp 認證,該認證驗證了一個組織將企業用作向善的力量。

多家營利性 AI 公司已加入 B Corp 標準,這表明 AI 永遠是一種新興趨勢。 雖然這種類型的認證並不是人工智能公司獨有的,但它確實表明了對道德行為的承諾,更多的科技公司可以而且應該尋求認證。

人工智能向善

在討論人工智能倫理時,重點更多地放在可能的負面人工智能用例和影響上,但人工智能確實做了很多好事。 重要的是要記住,人工智能技術不僅是一個潛在問題,而且是解決世界上許多最大問題的方法。

有人工智能可以預測氣候變化的影響並提出應對措施; 機器人外科醫生可以執行或協助需要比人類更精確的手術。

人工智能輔助農業技術正在提高作物產量,同時減少作物產量浪費。 甚至還有像 AI for Good 這樣的非營利組織,專門致力於讓 AI 成為具有全球影響力的力量。 儘管看起來很自然,但人工智能讓簡單的日常任務變得更容易,比如導航交通或詢問 Siri 天氣。

正確的道德規範讓人工智能變得更好

人工智能已成為融入您日常生活的強大工具。 您幾乎所有的服務和設備都使用 AI 來讓您的生活更輕鬆或更高效。 當然,雖然惡意使用人工智能是可能的,但絕大多數公司都有道德原則,以盡可能減輕負面影響。

只要遵循最佳實踐,人工智能就有可能改善幾乎每個行業,從醫療保健到教育等等。 創建這些人工智能模型的人要確保他們牢記道德規範,並不斷質疑他們創造的東西如何使整個社會受益。

當您將 AI 視為擴展人類智能而不是取代它的一種方式時,它似乎並不那麼複雜或可怕。 通過正確的道德框架,很容易看出它將如何使世界變得更美好。

將人工智能集成到您的日常功能中,並使用人工智能軟件自動執行任務。