AI の倫理は懸念事項です。 倫理を保つ方法を学ぶ

公開: 2022-04-28

人工知能 (AI) は、私たちの日常生活のいたるところに存在するようになっています。

意識しているかどうかにかかわらず、AI は日常的に使用する多くのテクノロジに組み込まれています。 Netflix があなたの好みに合いそうな番組をおすすめしたり、Google があなたが普段出発する空港からオンラインで旅行を予約することを提案したりするときは、人工知能が関与しています。

実際、今日の企業の 91% が AI への投資を望んでいます。 AI は非常に技術的で、SF レベルに近いように見えるかもしれませんが、最終的には単なるツールです。 また、他のツールと同様に、良くも悪くも使用できます。 したがって、AI がますます高度なタスクを引き受けるにつれて、AI を適切に使用するための倫理的な枠組みを確実に整備することが重要です。

AI の倫理に関する主な懸念事項、倫理的な AI の例、そして最も重要なこととして、ビジネス コンテキストで AI を使用する際に倫理が尊重されるようにする方法について、もう少し詳しく見ていきましょう。

AIにおける倫理とは?

AI 倫理は、人工知能技術の開発と使用を導き、知らせるための一連の道徳的原則です。 AI は通常人間の知性を必要とすることを行うため、人間の意思決定と同じくらい道徳的なガイドラインを必要とします。 倫理的な AI 規制がなければ、このテクノロジーを使用して不正行為を永続させる可能性が高くなります。

金融、ヘルスケア、旅行、カスタマー サービス、ソーシャル メディア、輸送など、多くの業界で AI が多用されています。 非常に多くの業界でますますその有用性が高まっているため、AI テクノロジーは世界のあらゆる側面に広範囲に及ぶ影響を及ぼしているため、規制する必要があります。

もちろん、AI が展開される業界や状況に応じて、さまざまなレベルのガバナンスが必要になります。 AI を使用して家の間取りを決定するロボット掃除機は、倫理的な枠組みを使用しない限り、世界を劇的に変える可能性は低いです。 歩行者を認識する必要がある自動運転車や、ローンを承認される可能性が最も高い人物を特定するアルゴリズムは、倫理的なガイドラインが実装されていない場合、社会に大きな影響を与える可能性があり、また影響を与えることになります。

AI の最大の倫理的懸念を特定し、倫理的な AI の例を参照し、AI を倫理的に使用するためのベスト プラクティスを検討することで、組織が AI を使用する正しい軌道に乗っていることを確認できます。

AI の主な倫理的懸念は何ですか?

前述のように、主要な倫理的懸念は、業界、状況、潜在的な影響の大きさによって大きく異なります。 しかし、概して、人工知能に関する最大の倫理的問題は、AI バイアス、AI が人間の仕事に取って代わる可能性があるという懸念、プライバシーに関する懸念、AI を使用して欺いたり操作したりすることです。 それらについて詳しく見ていきましょう。

AIにおけるバイアス

AI が高度なタスクを引き受けて重労働を行うとき、それらのタスクを実行するために人間が AI をプログラムし、トレーニングしたことを忘れないでください。 そして人には偏見があります。 たとえば、主に白人男性のデータ サイエンティストが主に白人男性のデータを収集した場合、彼らが設計する AI は彼らのバイアスを複製する可能性があります。

しかし、それは実際には AI バイアスの最も一般的な原因ではありません。 さらに一般的なのは、AI モデルのトレーニングに使用されるデータに偏りがある可能性があることです。 たとえば、収集されたデータが統計的過半数からのみである場合、それは本質的に偏っています。

これの痛烈な例は、自動運転車の物体認識に関するジョージア工科大学の最近の研究です。 肌の色が濃い歩行者は、肌の色が薄い人よりも約5%多く衝突することがわかった. 彼らは、AIモデルのトレーニングに使用されたデータが不正の原因である可能性が高いことを発見しました.データセットには、肌の色が薄い人々の例が約3.5倍含まれていたため、AIモデルはそれらをよりよく認識できました. 自動運転車が人に衝突するような潜在的に危険なことになると、この一見小さな違いが致命的な結果をもたらす可能性がありました。

プラス面として、AI と機械学習 (ML) モデルの良い点は、トレーニング対象のデータ セットを変更できることです。また、十分な労力を投資すれば、ほとんど偏りがなくなる可能性があります。 対照的に、人々に完全に偏りのない決定を大規模に行わせることは現実的ではありません。

AIが仕事を置き換える

歴史上のほとんどすべての技術革新は、仕事を奪ったと非難されてきましたが、これまでのところ、そのように起こったことはありません。 AI がどれほど進歩しているように見えても、AI がすぐに人間やその仕事に取って代わることはありません。

1970 年代に自動預け払い機 (ATM) が導入され、人々は銀行員の大量失業を恐れました。 現実は正反対でした。 銀行の支店を運営するために必要なレジ係が少なくなったため、銀行は支店の数とレジ係の仕事の数を全体的に増やすことができました。 また、ATM が小切手預金の処理や現金の引き出しなどの単純で日常的なタスクを処理したため、より少ない費用でそれを行うことができました。

これは、AI とそのアプリケーションで現在起こっていることに反映されています。 その一例は、AI が人間の会話を理解し、模倣するために最初に導入されたときです。 人間のカスタマー サービス エージェントがチャットボットとインテリジェント バーチャル アシスタント (IVA) に取って代わられると、人々はパニックに陥りました。 現実には、AI を活用した自動化は非常に便利ですが、AI が人間に完全に取って代わることはまずありません。

同様に、ATM は人間の介入を必要としないありふれたタスクを処理し、AI を利用したチャットボットと IVA は単純で反復的な要求を処理し、自然言語処理を使用して自然言語で質問を理解することさえできます。文脈上の答え。

しかし、最も複雑なクエリには依然として人間のエージェントの介入が必要です。 AI を活用した自動化はいくつかの点で制限される可能性がありますが、その影響は非常に大きくなる可能性があります。 AI を活用した仮想エージェントは、顧客サービス料金を最大 30% 削減し、チャットボットは定型業務と顧客の質問の最大 80% を処理できます。

AI の未来は現実的には、人間と AI を搭載したボットが連携し、ボットが単純なタスクを処理し、人間がより複雑な問題に集中するものです。

AI とプライバシー

おそらく、AI の倫理に関する最も妥当な懸念はプライバシーです。 プライバシーは、国連人権宣言で基本的人権として認識されており、さまざまな AI アプリケーションがプライバシーに真の脅威をもたらす可能性があります。 監視カメラやスマートフォン、インターネットなどのテクノロジーにより、個人データの収集が容易になりました。 企業がデータを収集および保存する理由と方法について透明性を確保していない場合、プライバシーが危険にさらされます。

たとえば、顔認識は多くの理由で物議を醸しています。 その理由の 1 つは、このテクノロジによって画像がどのように認識され、保存されるかです。 明示的な同意なしに監視されることは、多くの人が非倫理的と考える AI アプリケーションの 1 つです。 実際、欧州委員会は、適切な倫理的管理が実施されるまで、公共スペースでの顔認識技術を禁止しました.

AI に関する倫理的なプライバシー規制を作成する際の課題は、人々が一般的に、ある程度の個人化を得るために個人情報の一部を進んで放棄することです。 これは、正当な理由から、カスタマー サービスとマーケティングにおける大きな傾向です。

80%

ブランドがパーソナライズされたエクスペリエンスを提供すると、購入する可能性が高くなる消費者の割合。

出典:イプシロン

例としては、過去の購入に基づいてクーポンを提供する食料品店やドラッグ ストア、消費者の場所に基づいて割引を提供する旅行会社などがあります。

この個人データは、AI が消費者が望むタイムリーでパーソナライズされたコンテンツを配信するのに役立ちます。 それでも、適切なデータ サニタイズ プロトコルがなければ、このデータが処理されてサードパーティ企業に販売され、意図しない目的に使用されるリスクがあります。

たとえば、今では悪名高いケンブリッジ・アナリティカのスキャンダルには、トランプ陣営のために働いていた政治コンサルティング会社が関与し、何千万人もの Facebook ユーザーの個人データを販売していました。 これらのサードパーティ企業は、サイバー攻撃やデータ侵害に対しても脆弱です。つまり、個人情報がさらに悪用される可能性があります.

皮肉なことに、AI はデータ保護の優れたソリューションです。 AI の自己学習機能は、AI を利用したプログラムが、セキュリティ侵害につながることが多い悪意のあるウイルスやパターンを検出できることを意味します。 これは、AI を実装することで、組織は情報が盗まれる前に、データ侵害の試みやその他の種類のデータ セキュリティ攻撃をプロアクティブに検出できることを意味します。

AIによる欺瞞と操作

AI を使用して誤った情報を永続させることは、もう 1 つの主要な倫理的問題です。 機械学習モデルは事実に反するテキストを簡単に生成できます。つまり、偽のニュース記事や偽の要約が数秒で作成され、実際のニュース記事と同じチャネルを通じて配布される可能性があります。

これは、ソーシャル メディアが 2016 年の選挙中にフェイク ニュースの拡散に多大な影響を与え、Facebook が倫理的 AI の脚光を浴びたことでよくわかります。 NYU とスタンフォード大学の研究者による 2017 年の調査によると、Facebook で最も人気のある偽のニュース記事は、最も人気のある主流のニュース記事よりも頻繁に共有されていました。 この誤った情報が Facebook の規制なしに拡散され、大統領選挙と同じくらい重要な結果に影響を与える可能性があるという事実は、非常に憂慮すべきことです。

AI は、誤った音声録音や、既存の画像やビデオの誰かが別の誰かに置き換えられた合成画像やビデオを作成することもできます。 「ディープフェイク」として知られるこれらの誤った類似性は、非常に説得力があります。

このように意図的に欺くために AI が使用されると、何が現実であるかを判断する責任が個人に課せられます。また、スキルの欠如または意志の欠如が原因であるかどうかにかかわらず、人間は常に何が真実であるかを判断できるとは限らないことがわかっています。本物かどうか。

AI を倫理的に使用する方法

AI がもたらすさまざまな課題を考えると、AI を組織内のソリューションとして実装する際のリスクを軽減する方法を知りたいと思うかもしれません。 幸いなことに、ビジネス コンテキストで AI を倫理的に使用するためのベスト プラクティスがいくつかあります。

AI 倫理に関する教育と意識向上

AI でできること、その課題、限界について、自分自身と仲間を教育することから始めましょう。 人々を怖がらせたり、AI の非倫理的な使用の可能性を完全に無視したりするのではなく、誰もがリスクを理解し、リスクを軽減する方法を知っていることを確認することが、正しい方向への第一歩です。

次のステップは、組織が遵守しなければならない一連の倫理ガイドラインを作成することです。 最後に、AI の倫理は定量化が難しいため、定期的にチェックインして、目標が達成され、プロセスが守られていることを確認してください。

AI に対してヒューマン ファーストのアプローチを取る

ヒューマン ファーストのアプローチを採用することは、バイアスを制御することを意味します。 まず、データに偏りがないことを確認してください (上記の自動運転車の例のように)。 第二に、それを包括的にします。 米国では、ソフトウェア プログラマーの人口統計は、約 64% が男性、62% が白人です。

これは、社会の仕組みを形作るアルゴリズムを開発する人々が、必ずしもその社会の多様性を代表しているとは限らないことを意味します。 包括的アプローチを採用して AI テクノロジに取り組むチームの多様性を拡大することで、作成した AI が作成された世界を確実に反映するようにすることができます。

すべての AI ユースケースで透明性とセキュリティを優先

AI がデータの収集や保存に関与している場合、データの保存方法、使用目的、およびそのデータを共有することから得られるメリットについて、ユーザーや顧客を教育することが不可欠です。 この透明性は、顧客との信頼を築くために不可欠です。 このように、倫理的な AI フレームワークを順守することは、制限的な規制ではなく、ビジネスに対する肯定的な感情を生み出すことと見なすことができます。

エシカルAIの例

AI は比較的新しい分野ですが、何十年もこの分野に携わってきた技術大手と、介入と規制の必要性を認識している客観的な第三者は、組織のポリシーを調整できるフレームワークを作成しました。

倫理的な AI を刺激するフレームワーク

いくつかの公平な第三者は、AI の倫理的な使用に関するガイドラインを作成し、その使用が社会に利益をもたらすことを保証する必要性を認識しています。

経済協力開発機構 (OECD) は、より良い生活のためのより良い戦略を作成するために活動している国際機関です。 彼らは、革新的で信頼でき、人権と民主的価値を尊重する AI の使用を促進する OECD AI 原則を作成しました。

国連 (UN) はまた、AI が善のために使用できる強力なツールであるが、国連の価値観と矛盾し、それに反する方法で使用されるリスクがあることについて議論する、倫理的 AI のためのフレームワークを開発しました。 それは、国連での AI の使用がその倫理的価値と一致していることを保証するために、一連のガイドライン、ポリシー、または倫理規定を作成する必要があることを示唆しています。

ビジネスと倫理的 AI

客観的な第三者に加えて、この分野の最大のリーダーも、AI を倫理的に使用するための独自のガイドラインを作成しています。

たとえば、Google は、研究や製品における人工知能の開発と使用を導く倫理憲章を形成する人工知能原則を開発しました。 Microsoft は、Microsoft におけるすべての AI イノベーションの指針となる責任ある AI 原則を作成しただけでなく、他の企業が独自の AI サポート ポリシーを作成するのを支援する AI ビジネス スクールも作成しました。

しかし、倫理的な AI を提唱するためにシリコン バレーに拠点を置く必要はありません。 一部の小規模な AI 企業はこれに倣い、価値観の一部として倫理を取り入れ始めています。

また、営利目的のビジネスを倫理的かつ持続可能であると認定する方法もあります。たとえば、組織がビジネスを善のための力として利用していることを検証する B Corp 認定などがあります。

いくつかの営利目的の AI 企業が B Corp 規格に参加しており、AI が永遠に新しいトレンドであることを示しています。 この種の認定は AI 企業に限定されたものではありませんが、倫理的に行動するというコミットメントを示しており、より多くのテクノロジー企業が認定を求めることができますし、そうすべきです。

AI for Good

AI の倫理について議論する場合、AI の潜在的なマイナスのユースケースと影響に焦点が当てられますが、AI は実際に多くのことを行っています。 AI テクノロジーは潜在的な問題であるだけでなく、世界最大の問題の多くに対する解決策であることを覚えておくことが重要です。

気候変動の影響を予測し、それに対処するための行動を提案する AI があります。 ロボット外科医は、人間が処理できる以上の精度を必要とする手術を実行または支援できます。

AI 支援農業技術は、収穫量を増やしながら収穫量の無駄を減らしています。 AI for Good のような非営利組織でさえ、AI を世界に影響を与える力にすることに専念しています。 当然のことのように思えるかもしれませんが、AI は、交通状況をナビゲートしたり、Siri に天気を尋ねたりするなど、シンプルで日常的なタスクをより簡単にします。

AI は正しい倫理によってより良くなる

人工知能は、日常生活に組み込まれた強力なツールになりました。 ほぼすべてのサービスとデバイスが AI を使用して、生活をより簡単または効率的にしています。 もちろん、悪意を持って AI を使用することは可能ですが、大多数の企業は、可能であれば悪影響を軽減するための倫理原則を定めています。

ベスト プラクティスが守られている限り、AI は医療から教育まで、ほぼすべての業界を改善する可能性を秘めています。 これらの AI モデルを作成する人々は、倫理を念頭に置いて、作成したものが社会全体にどのように役立つかを常に疑問視する必要があります。

AI を人間の知性を置き換えるのではなく、拡張する方法と考えると、それほど複雑でも恐ろしくもないように思えます。 そして、適切な倫理的枠組みがあれば、それが世界をより良い方向に変える方法を簡単に理解できます.

人工知能を日常業務に統合し、人工知能ソフトウェアでタスクを自動化します。