Sitemap トグルメニュー

AI のバイアスがどのようにマーケティング データに損害を与えるか、またそれに対して何ができるか

公開: 2023-02-23

アルゴリズムは、マーケティングとマーテックの中心にあります。 それらは、データ分析、データ収集、オーディエンス セグメンテーションなどに使用されます。 それは、それらの上に構築された人工知能の中心にあるからです。 マーケティング担当者は、中立的で信頼できるデータを提供するために AI システムに依存しています。 そうしないと、マーケティング活動の方向性を誤ってしまう可能性があります..

私たちは、アルゴリズムを偏見や意図のない一連のルールと考えるのが好きです。 それ自体がまさにそれです。 彼らには意見がありません..しかし、それらのルールは、作成者の仮定と価値観に基づいて構築されています。 これはバイアスが AI に入り込む 1 つの方法です。 もう 1 つの、おそらくより重要な方法は、トレーニング対象のデータを使用することです。

さらに掘り下げる: Bard と ChatGPT は最終的に検索エクスペリエンスを向上させます

たとえば、顔認識システムは、ほとんどが肌の色が薄い人々の一連の画像でトレーニングされます。 その結果、彼らは肌の色が濃い人を認識するのが苦手なことで有名です。 ある例では、不均衡に有色人種である下院議員 28 人が顔写真の画像と誤って照合されました。 これを修正する試みが失敗したため、一部の企業、特に Microsoft は、これらのシステムを警察署に販売することをやめました。

ChatGPT、Google の Bard、およびその他の AI を利用したチャットボットは、深層学習を使用してテキストを生成する自己回帰言語モデルです。 その学習は膨大なデータセットで訓練されており、おそらく特定の期間にインターネットに投稿されたすべてのものを網羅しています。データセットには、エラー、偽情報、そしてもちろんバイアスがたくさんあります。

取得したデータと同じくらい良い

The Marketing AI Institute の創設者兼 CEO である Paul Roetzer は、次のように述べています。 「それは多くの点で人類の鏡にすぎません。」

これらのシステムのビルダーはこれを認識しています。

TrustInsights.ai の共同創設者兼チーフ データ サイエンティストである Christopher Penn は次のように述べています。 「したがって、完全に自動化されたブラック ボックスのセンチメント モデリングがあり、人々の名前を判断している場合、レティシアがローラよりも低いスコアを獲得した場合、問題が発生します。 あなたはこれらの偏見を助長しています。」

OpenAI のベスト プラクティス ドキュメントには、「幻覚的な不正確な情報から、攻撃的な出力、バイアスなどに至るまで、言語モデルは大幅な変更なしではすべてのユース ケースに適していない可能性がある」と述べられています。

マーケターは何をすべきか?

バイアスを軽減することは、可能な限り最高のデータを使用したいマーケティング担当者にとって不可欠です。 それを排除することは永遠に動く目標であり、追求すべき目標ですが、必ずしも達成できるとは限りません。

「マーケティング担当者やマーテック企業が考えるべきことは、『後で緩和しなければならないバイアスをモデルが最初から少なくするように、トレーニング データにこれをどのように適用すればよいか』ということです」と Christopher Penn 氏は言います。 「ゴミを入れないでください。ゴミをろ過する必要はありません。」

これを行うのに役立つツールがあります。 よく知られているのは次の 5 つです。

  • What-If from Google は、データ ポイントを操作し、プロットを生成し、変更が最終結果に影響を与えるかどうかをテストするための条件を指定することで、モデルの偏りの存在を検出するのに役立つオープン ソース ツールです。
  • IBM のAI Fairness 360 は、機械学習モデルの偏りを検出して排除するオープンソースのツールキットです。
  • フェアラーン 公平性とモデルのパフォーマンスの間のトレードオフをナビゲートするのに役立つように設計された Microsoft から。
  • Local Interpretable Model-Agnostic Explanations (LIME)は、研究者の Marco Tulio Ribeiro によって作成されました。 ユーザーがモデルのさまざまなコンポーネントを操作して、バイアスの原因をよりよく理解し、存在する場合はそれを指摘できるようにします。
  • FairML MIT の Julius Adebayo は、モデルの入力の相対的な重要性を定量化することにより、予測モデルを監査するためのエンドツーエンドのツールボックスです。

「探しているものがわかっている場合、彼らは良いです」とペンは言います。 「箱の中に何が入っているかわからない場合、それらはあまり良くありません。」

入力の判断は簡単な部分です

たとえば、AI Fairness 360 を使用すると、一連のローン決定と、保護されたクラス (年齢、性別、人種など) のリストを与えることができます。 次に、トレーニング データまたはモデル内のバイアスを特定し、モデルがバイアスのある方向にドリフトし始めたときにアラームを鳴らすことができます。

「ジェネレーションを行っているときは、特にコピーやイメージを作成している場合は、それを行うのがはるかに難しくなります」と Penn 氏は言います。 「現在存在するツールは主に、軽減しようとしている明確な結果を伴う表形式の長方形データを対象としています。」

ChatGPT や Bard などのコンテンツを生成するシステムは、非常にコンピューティング集約型です。 バイアスに対する追加のセーフガードを追加すると、パフォーマンスに大きな影響を与えます。 これは、それらを構築するというすでに困難なタスクに追加されるため、すぐに解決策を期待しないでください.

待つ余裕はない

ブランド リスクがあるため、マーケティング担当者はモデルが修正されるのをじっと待っている余裕はありません。 AI によって生成されたコンテンツに対して行う必要がある軽減策は、何がうまくいかないのかを常に問いかけることです。 ダイバーシティ、エクイティ、インクルージョンの取り組みに携わる最高の人材です。

「組織は DEI のイニシアチブに口先だけで対応します」と Penn 氏は言います。 ダイバーシティ チームに…モデルの出力を調べてもらい、「これで問題ないか、これで問題ないか」と判断してもらいます。 そして、DEI がこれに承認の印を付けたように、それをプロセスに組み込みます。」

企業がこれらすべてのシステムで偏見をどのように定義し、軽減するかは、その文化の重要な指標となります。

「各組織は、このテクノロジーをどのように開発および使用するかについて、独自の原則を策定する必要があります」とポール・ロッツァーは言います。 「そして、主観的なレベルの『これが私たちが偏見であるとみなすものであり、これを可能にするツールを使用するか、または使用しないかということ以外に、どのように解決されるかはわかりません。』」


マーテックを手に入れよう! 毎日。 無料。 受信トレイに。

条件を参照してください。



関連記事

    AI が現在のマーケティングにどのように役立つか
    Bard と ChatGPT は最終的に検索エクスペリエンスを向上させます
    倫理的な懸念があるマーテックの 4 つの領域
    MarTech のマーケティング AI の専門家がフォローする
    ChatGPT がマーケティング テクノロジーを変える仕組み

マーテックの新機能

    トヨタは2023年のクラウンをサポートするAR体験を開始
    DAM ワークフローが必要な理由と、それを計画する方法は次のとおりです。
    デモ中にデジタル エクスペリエンス プラットフォーム ベンダーに尋ねる 13 の質問
    マーケティング担当者が B2B に TikTok を検討すべき 5 つの理由
    チャットGPT。 GA4。 プライバシー優先の CX。 MarTech ですべてを調べてください。