Bagaimana bias dalam AI dapat merusak data pemasaran dan apa yang dapat Anda lakukan untuk mengatasinya
Diterbitkan: 2023-02-23Algoritma adalah inti dari pemasaran dan martech. Mereka digunakan untuk analisis data, pengumpulan data, segmentasi audiens dan banyak lagi. Itu karena mereka berada di jantung kecerdasan buatan yang dibangun di atasnya. Pemasar mengandalkan sistem AI untuk menyediakan data yang netral dan andal. Jika tidak, itu bisa salah mengarahkan upaya pemasaran Anda..
Kami suka menganggap algoritme sebagai kumpulan aturan tanpa bias atau niat. Dalam diri mereka sendiri, itulah mereka. Mereka tidak punya pendapat.. Tapi aturan itu dibangun di atas anggapan dan nilai penciptanya. Itulah salah satu cara bias masuk ke AI. Cara lain dan mungkin yang lebih penting adalah melalui data yang dilatihnya.
Menggali lebih dalam: Bard dan ChatGPT pada akhirnya akan membuat pengalaman pencarian menjadi lebih baik
Misalnya, sistem pengenalan wajah dilatih pada sekumpulan gambar dari sebagian besar orang berkulit terang. Akibatnya mereka terkenal buruk dalam mengenali orang berkulit gelap. Dalam satu contoh, 28 anggota Kongres, orang kulit berwarna yang tidak proporsional, dicocokkan secara tidak benar dengan gambar mugshot. Kegagalan upaya untuk memperbaikinya telah menyebabkan beberapa perusahaan, terutama Microsoft, berhenti menjual sistem ini ke departemen kepolisian.
ChatGPT, Bard Google, dan chatbot bertenaga AI lainnya adalah model bahasa autoregresif yang menggunakan pembelajaran mendalam untuk menghasilkan teks. Pembelajaran itu dilatih pada kumpulan data yang sangat besar, mungkin mencakup semua yang diposting di internet selama periode waktu tertentu — kumpulan data yang penuh dengan kesalahan, disinformasi, dan, tentu saja, bias.
Hanya sebagus data yang didapatnya
“Jika Anda memberinya akses ke internet, itu pasti memiliki bias apa pun yang ada,” kata Paul Roetzer, pendiri dan CEO The Marketing AI Institute. “Itu hanya cermin kemanusiaan dalam banyak hal.”
Pembuat sistem ini menyadari hal ini.
“Dalam [pencipta ChatGPT] pengungkapan dan penafian OpenAI, mereka mengatakan sentimen negatif lebih erat terkait dengan nama perempuan Afrika-Amerika daripada nama lain yang ada di sana,” kata Christopher Penn, salah satu pendiri dan kepala ilmuwan data di TrustInsights.ai. “Jadi, jika Anda memiliki pemodelan sentimen kotak hitam yang sepenuhnya otomatis dan Anda menilai nama depan orang, jika Letitia mendapat skor lebih rendah dari Laura, Anda memiliki masalah. Anda memperkuat bias ini.”
Dokumen praktik terbaik OpenAI juga mengatakan, "Dari halusinasi informasi yang tidak akurat, hingga keluaran yang menyinggung, bias, dan banyak lagi, model bahasa mungkin tidak cocok untuk setiap kasus penggunaan tanpa modifikasi yang signifikan."
Apa yang harus dilakukan pemasar?
Mengurangi bias sangat penting bagi pemasar yang ingin bekerja dengan data sebaik mungkin. Menghilangkannya akan selamanya menjadi target yang bergerak, tujuan untuk dikejar tetapi belum tentu tercapai.
“Apa yang harus dipikirkan oleh pemasar dan perusahaan martech adalah, 'Bagaimana kami menerapkan ini pada data pelatihan yang masuk sehingga model memiliki lebih sedikit bias untuk memulai dengan yang harus kami mitigasi nanti?'” kata Christopher Penn. “Jangan memasukkan sampah, Anda tidak perlu menyaring sampah.”
Ada alat yang dapat membantu Anda melakukan ini. Berikut adalah lima yang paling terkenal:
- Bagaimana-Jika dari Google adalah alat sumber terbuka untuk membantu mendeteksi keberadaan bias dalam model dengan memanipulasi poin data, membuat plot, dan menentukan kriteria untuk menguji apakah perubahan berdampak pada hasil akhir.
- AI Fairness 360 dari IBM adalah perangkat sumber terbuka untuk mendeteksi dan menghilangkan bias dalam model pembelajaran mesin.
- Fairlearn dari Microsoft dirancang untuk membantu menavigasi pertukaran antara keadilan dan kinerja model.
- Local Interpretable Model-Agnostic Explanations (LIME) dibuat oleh peneliti Marco Tulio Ribeiro memungkinkan pengguna memanipulasi berbagai komponen model untuk lebih memahami dan dapat menunjukkan sumber bias jika ada.
- FairML dari MIT Julius Adebayo adalah toolbox end-to-end untuk mengaudit model prediktif dengan mengukur signifikansi relatif dari input model.
“Mereka bagus jika Anda tahu apa yang Anda cari,” kata Penn. "Mereka kurang bagus jika Anda tidak yakin apa yang ada di dalam kotak."
Menilai masukan adalah bagian yang mudah
Misalnya, katanya, dengan AI Fairness 360, Anda dapat memberikan serangkaian keputusan pinjaman dan daftar kelas yang dilindungi — usia, jenis kelamin, ras, dan sebagainya. Kemudian dapat mengidentifikasi setiap bias dalam data pelatihan atau dalam model dan membunyikan alarm ketika model mulai menyimpang ke arah yang bias.
“Saat Anda melakukan pembuatan, akan jauh lebih sulit untuk melakukannya, terutama jika Anda melakukan penyalinan atau pencitraan,” kata Penn. “Alat yang ada saat ini terutama dimaksudkan untuk data berbentuk persegi panjang dengan hasil yang jelas yang ingin Anda kurangi.”
Sistem yang menghasilkan konten, seperti ChatGPT dan Bard, sangat padat komputasi. Menambahkan perlindungan tambahan terhadap bias akan berdampak signifikan pada kinerja mereka. Ini menambah tugas yang sudah sulit untuk membangunnya, jadi jangan berharap ada penyelesaian segera.
Tidak sanggup menunggu
Karena risiko merek, pemasar tidak dapat duduk diam dan menunggu model memperbaiki dirinya sendiri. Mitigasi yang perlu mereka lakukan untuk konten buatan AI terus-menerus menanyakan apa yang salah. Orang-orang terbaik untuk ditanyai berasal dari upaya keragaman, kesetaraan, dan inklusi.
“Organisasi memberikan banyak basa-basi untuk inisiatif DEI,” kata Penn, “tetapi di sinilah DEI benar-benar dapat bersinar. [Memiliki] tim keragaman … periksa keluaran model dan katakan, 'Ini tidak OK atau ini OK.' Dan kemudian buat itu menjadi proses, seperti DEI telah memberikan stempel persetujuannya.

Bagaimana perusahaan mendefinisikan dan memitigasi bias dalam semua sistem ini akan menjadi penanda penting budayanya.
“Setiap organisasi harus mengembangkan prinsip mereka sendiri tentang bagaimana mereka mengembangkan dan menggunakan teknologi ini,” kata Paul Roetzer. "Dan saya tidak tahu bagaimana lagi itu diselesaikan selain pada tingkat subyektif 'inilah yang kami anggap bias dan kami akan, atau tidak akan, menggunakan alat yang memungkinkan ini terjadi."
Dapatkan MarTech! Sehari-hari. Bebas. Di kotak masuk Anda.
Lihat persyaratan.

Cerita terkait
Baru di MarTech