Sztuczna inteligencja staje się jeszcze mądrzejsza
Opublikowany: 2022-09-01Oczywiście marketerzy cyfrowi nadal mają pracę. Ale to nie będzie to samo zadanie, ponieważ sztuczna inteligencja rozpoczyna swój „drugi akt”.
Tak, sztuczna inteligencja nadal jest dobra w kompilowaniu, sortowaniu i kategoryzowaniu ogromnych ilości danych. Dopiero teraz jest w stanie w coraz większym stopniu pomagać w tworzeniu treści w sposób, w jaki nie mógł wcześniej.
Wszystko, co musisz zrobić, to dać aplikacji AI określone dane wejściowe. Renderuj dla mnie obraz gangstera z lat 20. robiącego selfie smartfonem. Ta technologia nie istniała 100 lat temu, ale obraz wygląda przekonująco.
Sztuczna inteligencja ewoluowała, ale jak teraz z niej korzystać? Zastępujesz ludzi i automatyzujesz ich pracę? Przejąć kontrolę nad sztuczną inteligencją? A może sztuczna inteligencja pomaga człowiekowi?
Potrzeba jest matką improwizacji
Od dawna istnieje obietnica wykorzystania sztucznej inteligencji do tworzenia treści wizualnych i pisemnych. „Rok temu nie mógł tego zrobić. Wydawało się, że zawsze „dostaje się tam”” – powiedział Adam Binder, właściciel, założyciel i dyrektor generalny firmy Creative Click Media zajmującej się marketingiem cyfrowym i SEO.
Rzeczy mają się teraz inaczej, spoiwo rzeczywistości napotkane, gdy zadzwoniła konieczność. „Próbowałem dotrzymać terminu, kiedy nie było tam mojego ludzkiego pisarza”. powiedział. Zwracając się do sztucznej inteligencji, Binder wykonał wszystkie niezbędne dane, aby aplikacja mogła trochę copywriting.
Aplikacja, z której korzystał, to GPT-3 firmy OpenAI, organizacji non-profit zajmującej się badaniami i wdrażaniem sztucznej inteligencji. Wykorzystuje istniejące kopie i najlepsze typy wyszukiwania z Google jako surowiec do generowania swoich danych wyjściowych. „Narzędzie do pisania stworzyło ton głosu” – powiedział Binder. „To przerażające, jak bardzo było podobne [do kopii pisarza]”.
Mimo to „sztuczna inteligencja jest daleka od zastąpienia pisarza” – powiedział Binder. „Nie może wymyślić tezy”. Nie może porównywać i kontrastować, i nie generuje kopii na tym samym poziomie, co artykuł w New York Timesie, dodał.
Google odłożył swój znacznik, oświadczając, że treści generowane przez sztuczną inteligencję naruszają zasady dla webmasterów . Jednak Google może nie mieć możliwości wykrycia takiej kopii. „Pisanie AI jest doskonałe” – powiedział Chris Carr, prezes i dyrektor generalny agencji cyfrowej Farotech. „Ludzie popełniają błędy”.
Zdobądź MarTech! Codzienny. Bezpłatny. W Twojej skrzynce odbiorczej.
Zobacz warunki.
Sprawiając, że śpiewa
GPT-3 pozyskuje swoje dane wejściowe z 20 najlepszych stron wyszukiwania Google. Choć może okazać się użyteczną kopią, nie jest „ostateczna” ani gotowa do druku. – Musisz to udoskonalić – powiedział Carr. „Człowiek musi to uczłowieczyć”.
Carr zademonstrował GPT-3 podczas wywiadu. Po wpisaniu pytania „Jak używać młotka?” Carr otrzymał szereg odpowiedzi z podziałem na różne opcje. Dzięki selekcji fragmentów informacji zwrotnych Carr był w stanie sklecić około 600 słów w ciągu około pięciu minut. Przeciętny pisarz potrzebowałby około godziny lub dwóch, aby wyprodukować ten sam wynik.
Chociaż sztuczna inteligencja mogła tworzyć kopie, nie mogła „zmusić tego do śpiewania”. Pismo generowane przez sztuczną inteligencję było płaskie, oparte na faktach i odnosiło się do wybranych punktów. Sztuczna inteligencja nie mogła „połączyć kropek” ani „pokazać osobowości”, zauważył Carr. Zawodowy pisarz mógłby napisać argumentację lub dodać zwrot, aby ożywić kopię, czego sztuczna inteligencja nie mogła zrobić.
Jeśli dołączysz pisemną treść znanego autora, GPT-3 może naśladować ich styl pisania. Ale to wciąż pozostawia kopię wymagającą edycji i dopracowania. „Doskonała treść pochodzi z synergii. Chodzi o poruszenie ludzkich umysłów wspaniałym argumentem” – powiedział Carr.

Czego AI nie powinna robić
Niestety sztuczna inteligencja jest podatna na „GIGO” – śmieci wchodzą, śmieci wychodzą. Pytanie do aplikacji AI, takiej jak GPT-3, niesie ze sobą ryzyko, że będzie ona czerpać z treści, które lepiej pozostawić nietknięte i nieprzeczytane. Internet, z którego czerpie surowe treści, wciąż roi się od mizoginistycznych i rasistowskich treści, ostrzega Pieter Buteneers, dyrektor ds. inżynierii języka maszynowego i sztucznej inteligencji w firmie Sinch zajmującej się komunikacją PaaS.
„Są pewne miejsca, z których nie czerpiesz”. Jak na Twitterze, zauważyli Buteneers. Zamiast tego należy ciągnąć z serwisów informacyjnych lub Wikipedii. „Tak, jest tam trochę śmieci, ale to treść wyselekcjonowana przez człowieka”. Sztuczna inteligencja jest nastawiona na wychwytywanie wzorców, ale nie ma możliwości oceny tego, co wychwytuje. „To nie ma zdrowego rozsądku” – powiedział Buteneers.
Innym potencjalnym nadużyciem są fałszywe treści — spam lub phishing — zauważył Carr. „Moc czynienia zła jest tak prosta, że aż śmieszna”. Dodał, że Google nie może oddzielić pszenicy od plew. Dobrym równoległym przykładem jest korzystanie z niechcianych połączeń telefonicznych, które są teraz tak powszechne, że ludzie pozwalają, aby poczta głosowa prześwietlała połączenie zamiast je odbierać.
W przypadku Sincha firma oferuje „filtr oszustw”, w którym jej sztuczna inteligencja może osądzić to, co wygląda na „podstępne”. „Może być źle, ale lepiej zatrzymać jeden fałszywy alarm niż odpuścić pozostałe 999”. - powiedział Butenerzy. Podczas gdy podejrzany materiał może zostać oflagowany, człowiek musi wydać decyzję, czy pozwolić mu odejść, czy go zatrzymać.
Sztuczna inteligencja zazwyczaj ma za zadanie wyszukiwanie bajtów wglądu z terabajtów danych, ale mimo to trzeba się martwić o GIGO. Sztuczna inteligencja musi skonsolidować dane i rozwiązywać tożsamości, aby ostatecznie osiągnąć podejście zorientowane na klienta, w którym można uzyskać dostęp do większej ilości danych i dobrze je wykorzystać, wyjaśnia Joyce Gordon, menedżer produktu AI/ML w przedsiębiorstwie CDP Amperity.
„Musi to zostać osiągnięte, zanim marki będą mogły zacząć wykorzystywać sztuczną inteligencję do dokonywania osądów — w przeciwnym razie dokonują osądów na podstawie częściowych lub niedokładnych danych”. powiedział Gordon. „Algorytm jest tak dobry, jak dane, które są wykorzystywane do jego zasilania”.
„Wszystkie modele AI uwzględniają ludzkie uprzedzenia. Dlatego nie da się wyegzorcyzmować wszystkich duchów w maszynie” – powiedział Paul Hebert, dyrektor ds. strategii korporacyjnej w platformie angażującej klientów Cheetah Digital. „Idąc dalej, powiedziałbym, że trendem będzie używanie ML do zadań, sztucznej inteligencji do sugerowanych wezwań do oceny, a ludzi do podejmowania ostatecznej decyzji”.
Tutaj Hebert zacytował wcześniej dołączony artykuł HBR. „Jak to wyraził [Garry] Kasparow, 'Słaby człowiek + maszyna + lepszy proces był lepszy od silnego samego komputera i, co bardziej niezwykłe, lepszy od silnego człowieka + maszyna + gorszy proces'”.
Co mogą zrobić marketerzy cyfrowi
Z czasem możliwości sztucznej inteligencji będą się poprawiać, pomimo jej ograniczeń. Marketingowcy cyfrowi będą musieli uczyć się na bieżąco i próbować identyfikować najlepsze przypadki użycia.
Carr udzielił tej rady marketerom: „Wyjdź przed [sztuczną inteligencję] lub daj się jej przejechać. To się zbliża, czy nam się to podoba, czy nie”. Dowiedz się również, jak działa Google, aby uzyskać najlepsze wyniki i najdokładniejszą treść źródłową. Kreatywni ludzie są klejem, który sprawi, że treść się przyklei.
I wreszcie, Carr ujawnił swoje największe zmartwienie: jeśli internet zostanie zrujnowany przez fałszywe treści i spam, „wyniki wyszukiwania staną się pustkowiem botów”.
„Najpierw spróbuj na małą skalę”, powiedział Buteneers, ale szybko się z tego ucz. Ucz się szybko na błędach. „Wskakuj — jednym palcem na raz”.
„Więc czołgaj się, chodź, biegnij” – powiedział Hebert. „Marketerzy muszą działać wolniej niż technologia i tak szybko, jak pozwala na to etyka. Etyka rządzi silnikiem AI”.
Nowość w MarTech