人工知能はさらに賢くなる
公開: 2022-09-01もちろん、デジタルマーケターにはまだ仕事があります。 しかし、人工知能が「第 2 の行為」を開始するため、まったく同じ仕事にはなりません。
はい、AI は膨大な量のデータをコンパイル、ソート、分類するのに優れています。 以前にはできなかった方法でコンテンツの作成を支援できるようになったのは、今だけです。
AI アプリに特定の入力を与えるだけです。 スマートフォンで自撮りをしている 1920 年代のギャングの画像をレンダリングしてください。 その技術は 100 年前には存在しませんでしたが、この画像は説得力があるように見えます。
AI は進化しましたが、今ではどのように使用されているのでしょうか。 人員を置き換えて作業を自動化しますか? AIに任せる? それとも、AI が人間を支援しますか?
必要は即興の母
AI を使用してビジュアル コンテンツやテキスト コンテンツを作成することは、長い間期待されてきました。 「1 年前には、それはできませんでした。 デジタル マーケティングおよび SEO 企業である Creative Click Media のオーナーであり、創設者兼 CEO である Adam Binder 氏は、次のように述べています。
今は状況が異なり、必要に迫られたときにバインダーが遭遇した現実。 「私の人間の作家がそこにいなかったとき、私は締め切りを作ろうとしていました。」 彼は言った。 AI に目を向けると、Binder は、アプリにコピーライティングを少し行わせるために必要なすべての入力を行いました。
彼が使用したアプリは、非営利の AI 研究および展開会社である OpenAI による GPT-3 でした。 出力を生成するための原材料として、既存のコピーと Google からのトップ検索ピックを使用します。 「筆記用具は声の調子を作り出しました」とバインダーは言いました。 「それが(作家のコピーに)どれほど似ていたかは恐ろしいことです。」
それでも、「AI がライターに取って代わるにはほど遠い」と Binder 氏は述べています。 「それでは論文が思いつかない。」 比較対照することはできず、ニューヨーク タイムズの論説記事と同じレベルのコピーを生成していない、と彼は付け加えた。
Google は、AI によって生成されたコンテンツがウェブマスター ポリシーに違反していると宣言して、そのマーカーを削除しました。 ただし、Google にはそのようなコピーを検出する手段がない場合があります。 デジタル エージェンシーである Farotech の社長兼 CEO である Chris Carr 氏は、次のように述べています。 「人間は間違いを犯します。」
マーテックを手に入れよう! 毎日。 無料。 受信トレイに。
条件を参照してください。
歌わせる
GPT-3 は、Google 検索の上位 20 ページから入力を取得します。 使用可能なコピーを作成することはできますが、「最終」または印刷の準備ができているわけではありません。 「あなたはそれを磨かなければなりません」とカーは言いました。 「人間はそれを人間化する必要があります。」
Carr はインタビュー中に GPT-3 のデモを行いました。 「ハンマーの使い方は?」という質問を入力した後、Carr はさまざまな選択肢に分かれた一連の回答を得ました。 カー氏は、フィードバックの断片を厳選することで、約 5 分で約 600 語のコピーをまとめることができました。 同じ出力を生成するには、平均的なライターで約 1 時間か 2 時間かかります。
AI はコピーを作成することはできましたが、「歌わせること」はできませんでした。 AI によって生成された文章は、平凡で事実に基づいており、選択されたポイントに対処していました。 AI は「点をつなぐ」ことも「個性を示す」こともできなかったと Carr 氏は述べています。 プロのライターなら、論拠を書いたり、言い回しを追加して文章を活気づけたりすることができますが、これは AI にはできませんでした。

既知の著者によるコンテンツを含めた場合、GPT-3 はその著者の文体を模倣できます。 しかし、それではコピーを編集して磨き上げる必要があります。 「優れたコンテンツは相乗効果から生まれます。 それは素晴らしい議論で人々の心を動かすことです」とカーは言いました.
AIがやってはいけないこと
悲しいことに、AI は「GIGO」に対して脆弱です。つまり、ガベージ イン、ガベージ アウトです。 GPT-3 のような AI アプリに質問することには、コンテンツから引き出してしまうというリスクが伴います。 生のコンテンツを引き出すインターネットは、いまだに女性差別的で人種差別的なコンテンツで溢れている、と通信 PaaS 企業 Sinch で機械語と AI のエンジニアリング ディレクターを務める Pieter Buteneers 氏は警告する。
「あなたが描かない特定の場所があります。」 Twitter と同様に、Buteneers 氏は次のように述べています。 代わりに、ニュース サイトやウィキペディアから取得する必要があります。 「はい、そこにはジャンクがいくつかありますが、それは人間がキュレーションしたコンテンツです。」 AI はパターンをピックアップするように調整されていますが、何をピックアップしているかを判断する方法はありません。 「それには常識がありません」と Buteneers 氏は言います。
悪用のもう 1 つの可能性は、虚偽のコンテンツ (スパムまたはフィッシング) であると Carr 氏は述べています。 「悪いことをする力はとても簡単で、ばかげています。」 グーグルはもみ殻から小麦を分離することはできない、と彼は付け加えた。 よく似た例として、迷惑電話の使用があります。今では非常に一般的になっているため、人々は留守番電話に応答せずに通話をスクリーニングするようになっています。
Sinch の場合、同社は「フィッシング フィルター」を提供しており、AI が「フィッシング」に見えるものを判断することができます。 「それは間違っている可能性がありますが、他の999を手放すよりも、1つの偽陽性を止める方が良いです。」 ブテニアーズは言った。 疑わしい資料にフラグを立てることはできますが、それを放置するか停止するかは人間が判断しなければなりません。
AI は通常、テラバイト単位のデータからバイト単位の洞察を求める任務を負っていますが、それでも GIGO について心配する必要があります。 エンタープライズ CDP Amperity の AI/ML プロダクト マネージャーであるジョイス ゴードン (Joyce Gordon) は、次のように説明しています。
「ブランドが AI を使用して判断を下す前に、これを達成する必要があります。そうしないと、部分的または不正確なデータに基づいて判断を下すことになります。」 ゴードンは言った。 「アルゴリズムは、それを強化するために使用されているデータと同じくらい優れています。」
「すべての AI モデルには人間のバイアスが含まれています。 したがって、マシン内のすべてのゴーストを追い払うことは不可能です」と、カスタマー エンゲージメント プラットフォーム Cheetah Digital のエンタープライズ戦略担当ディレクターである Paul Hebert 氏は述べています。 「今後は、ML をタスクに使用し、AI を提案された判断コールに使用し、人間が最終決定を下すようになる傾向があると思います。」
ここで Hebert は、以前にリンクされた HBR の記事を引用しました。 「[Garry] Kasparov が表現したように、『弱い人間 + 機械 + より良いプロセスは、強力なコンピューターのみよりも優れており、さらに驚くべきことに、強い人間 + 機械 + 劣ったプロセスよりも優れていました。』」
デジタルマーケターができること
AI の機能は、制限はありますが、時間の経過とともに改善されます。 デジタル マーケターは、その場で学習し、最適なユース ケースを特定する必要があります。
Carr はマーケターに次のアドバイスを提供しました。 好むと好まざるとにかかわらず、これは来る」 また、最良の結果と最も完全なソース コンテンツを取得できるように、Google の仕組みを理解してください。 クリエイティブな人々は、コンテンツを定着させる接着剤です。
そして最後に、Carr は彼の最大の懸念を明らかにしました。インターネットが虚偽のコンテンツやスパムによって台無しにされた場合、「検索結果はボットの荒れ地になります。」
「最初は小さく試してみてください」と Buteneers 氏は言いますが、そこからすぐに学びましょう。 間違いから素早く学びましょう。 「ジャンプイン — 一度に片足で。」
「だから、這って、歩いて、走って」とヒーバートは言った。 「マーケティング担当者は、技術者よりも遅く、倫理が許す限り速く行動する必要があります。 倫理は AI エンジンの総督です。」
マーテックの新機能