อคติใน AI สามารถทำลายข้อมูลทางการตลาดได้อย่างไร และคุณจะทำอย่างไรกับมัน
เผยแพร่แล้ว: 2023-02-23อัลกอริทึมเป็นหัวใจของการตลาดและมาร์เทค ซึ่งใช้สำหรับการวิเคราะห์ข้อมูล การรวบรวมข้อมูล การแบ่งกลุ่มผู้ชม และอื่นๆ อีกมากมาย นั่นเป็นเพราะพวกเขาเป็นหัวใจของปัญญาประดิษฐ์ซึ่งสร้างขึ้นจากพวกเขา นักการตลาดพึ่งพาระบบ AI เพื่อให้ข้อมูลที่เป็นกลางและเชื่อถือได้ หากไม่เป็นเช่นนั้น อาจทำให้ความพยายามทางการตลาดของคุณผิดพลาดได้..
เราชอบคิดว่าอัลกอริทึมเป็นชุดของกฎโดยไม่มีอคติหรือเจตนา ในตัวเองนั่นคือสิ่งที่พวกเขาเป็น พวกเขาไม่มีความคิดเห็น.. แต่กฎเหล่านั้นสร้างขึ้นจากการคาดคะเนและค่านิยมของผู้สร้าง นั่นเป็นวิธีหนึ่งที่ความลำเอียงเข้าสู่ AI อีกวิธีหนึ่งและอาจสำคัญกว่านั้นคือการใช้ข้อมูลที่ได้รับการฝึกอบรม
เจาะลึก: Bard และ ChatGPT จะทำให้ประสบการณ์การค้นหาดีขึ้นในที่สุด
ตัวอย่างเช่น ระบบจดจำใบหน้าได้รับการฝึกฝนในชุดภาพของผู้คนที่มีผิวสีอ่อนเป็นส่วนใหญ่ เป็นผลให้พวกเขาเป็นที่รู้จักไม่ดีในการจดจำคนผิวคล้ำ ในกรณีหนึ่ง สมาชิกสภาคองเกรส 28 คนซึ่งเป็นคนผิวสีไม่สมส่วน ถูกจับคู่อย่างไม่ถูกต้องกับภาพ Mugshot ความล้มเหลวของความพยายามที่จะแก้ไขสิ่งนี้ทำให้บางบริษัท โดยเฉพาะ Microsoft หยุดขายระบบเหล่านี้ให้กับกรมตำรวจ
ChatGPT, Bard ของ Google และแชทบอทที่ขับเคลื่อนด้วย AI อื่นๆ เป็นโมเดลภาษาแบบถดถอยอัตโนมัติโดยใช้การเรียนรู้เชิงลึกเพื่อสร้างข้อความ การเรียนรู้ดังกล่าวได้รับการฝึกฝนจากชุดข้อมูลขนาดใหญ่ ซึ่งอาจครอบคลุมทุกอย่างที่โพสต์บนอินเทอร์เน็ตในช่วงเวลาที่กำหนด ชุดข้อมูลที่เต็มไปด้วยข้อผิดพลาด ข้อมูลบิดเบือน และแน่นอนว่ามีอคติ
ดีเท่าข้อมูลที่ได้รับเท่านั้น
Paul Roetzer ผู้ก่อตั้งและ CEO ของ The Marketing AI Institute กล่าวว่า “ถ้าคุณให้มันเข้าถึงอินเทอร์เน็ต มันก็มีอคติอยู่โดยเนื้อแท้อยู่แล้ว” “เป็นเพียงกระจกสะท้อนความเป็นมนุษย์ในหลายๆ ด้าน”
ผู้สร้างระบบเหล่านี้ตระหนักถึงสิ่งนี้
“ใน [ผู้สร้าง ChatGPT] การเปิดเผยและการปฏิเสธความรับผิดชอบของ OpenAI พวกเขากล่าวว่าความรู้สึกด้านลบมีความเกี่ยวข้องอย่างใกล้ชิดกับชื่อหญิงชาวแอฟริกันอเมริกันมากกว่าชื่ออื่น ๆ ที่ตั้งอยู่ภายในนั้น” คริสโตเฟอร์ เพนน์ ผู้ร่วมก่อตั้งและหัวหน้านักวิทยาศาสตร์ข้อมูลของ TrustInsights.ai กล่าว “ดังนั้น ถ้าคุณมีการสร้างโมเดลความรู้สึกแบบกล่องดำแบบอัตโนมัติเต็มรูปแบบ และคุณกำลังตัดสินชื่อของผู้คน ถ้าเลทิเทียได้คะแนนต่ำกว่าลอร่า แสดงว่าคุณมีปัญหา คุณกำลังตอกย้ำอคติเหล่านี้”
เอกสารแนวปฏิบัติที่ดีที่สุดของ OpenAI ยังกล่าวอีกว่า “ตั้งแต่ข้อมูลที่ไม่ถูกต้องจนทำให้เกิดภาพหลอน ไปจนถึงผลลัพธ์ที่น่ารังเกียจ ไปจนถึงอคติ และอื่นๆ อีกมากมาย รูปแบบภาษาอาจไม่เหมาะกับทุกกรณีการใช้งานหากไม่มีการแก้ไขที่สำคัญ”
นักการตลาดต้องทำอย่างไร?
การลดอคติเป็นสิ่งสำคัญสำหรับนักการตลาดที่ต้องการทำงานกับข้อมูลที่ดีที่สุด การกำจัดมันจะกลายเป็นเป้าหมายที่เคลื่อนไหวตลอดไป เป้าหมายที่ต้องติดตามแต่ไม่จำเป็นต้องทำให้สำเร็จ
“สิ่งที่นักการตลาดและบริษัทมาร์เทคควรคิดคือ 'เราจะใช้ข้อมูลนี้กับข้อมูลการฝึกอบรมที่ป้อนเข้ามาได้อย่างไร เพื่อให้โมเดลมีอคติน้อยลงเพื่อเริ่มต้นโดยที่เราต้องแก้ไขในภายหลัง'” คริสโตเฟอร์ เพนน์กล่าว “อย่าใส่ขยะ คุณไม่จำเป็นต้องกรองขยะออก”
มีเครื่องมือที่สามารถช่วยคุณได้ นี่คือห้าคนที่รู้จักกันดีที่สุด:
- What-If จาก Google เป็นเครื่องมือโอเพ่นซอร์สที่ช่วยตรวจจับการมีอยู่ของอคติในโมเดลโดยจัดการจุดข้อมูล สร้างพล็อต และระบุเกณฑ์เพื่อทดสอบว่าการเปลี่ยนแปลงส่งผลกระทบต่อผลลัพธ์สุดท้ายหรือไม่
- AI Fairness 360 จาก IBM เป็นชุดเครื่องมือแบบโอเพ่นซอร์สเพื่อตรวจจับและกำจัดความลำเอียงในโมเดลแมชชีนเลิร์นนิง
- แฟร์เลิร์น จาก Microsoft ออกแบบมาเพื่อช่วยในการนำทางการแลกเปลี่ยนระหว่างความเป็นธรรมและประสิทธิภาพของแบบจำลอง
- Local Interpretable Model-Agnostic Explanation (LIME) สร้างขึ้นโดยนักวิจัย Marco Tulio Ribeiro ให้ผู้ใช้จัดการองค์ประกอบต่างๆ ของโมเดลเพื่อให้เข้าใจได้ดีขึ้นและสามารถชี้ให้เห็นถึงแหล่งที่มาของอคติได้หากมีอคติอยู่
- แฟร์ML จาก Julius Adebayo ของ MIT เป็นกล่องเครื่องมือแบบ end-to-end สำหรับการตรวจสอบแบบจำลองเชิงทำนายโดยการหาปริมาณความสำคัญสัมพัทธ์ของอินพุตของแบบจำลอง
“มันดีเมื่อคุณรู้ว่าคุณกำลังมองหาอะไร” เพนน์กล่าว “พวกเขาจะดีน้อยลงเมื่อคุณไม่แน่ใจว่ามีอะไรอยู่ในกล่อง”
การป้อนข้อมูลการตัดสินเป็นส่วนที่ง่าย
ตัวอย่างเช่น เขากล่าวว่า ด้วย AI Fairness 360 คุณสามารถให้ชุดการตัดสินใจเงินกู้และรายการประเภทที่ได้รับการคุ้มครอง เช่น อายุ เพศ เชื้อชาติ ฯลฯ จากนั้นจะสามารถระบุอคติใดๆ ในข้อมูลการฝึกอบรมหรือในแบบจำลอง และส่งเสียงเตือนเมื่อแบบจำลองเริ่มเบี่ยงเบนไปในทิศทางที่มีความเอนเอียง
“เมื่อคุณสร้างเจนเนอเรชัน มันยากกว่ามาก โดยเฉพาะถ้าคุณกำลังทำสำเนาหรือสร้างภาพ” เพนน์กล่าว “เครื่องมือที่มีอยู่ตอนนี้มีจุดประสงค์หลักสำหรับข้อมูลสี่เหลี่ยมแบบตารางพร้อมผลลัพธ์ที่ชัดเจนซึ่งคุณกำลังพยายามลดทอน”
ระบบที่สร้างเนื้อหา เช่น ChatGPT และ Bard นั้นใช้คอมพิวเตอร์มากอย่างไม่น่าเชื่อ การเพิ่มการป้องกันอคติเพิ่มเติมจะส่งผลกระทบอย่างมากต่อประสิทธิภาพของพวกเขา นี่เป็นการเพิ่มงานที่ยากอยู่แล้วในการสร้าง ดังนั้นอย่าคาดหวังการแก้ไขใดๆ ในเร็วๆ นี้
ไม่สามารถรอได้
เนื่องจากความเสี่ยงของแบรนด์ นักการตลาดจึงไม่สามารถนั่งรอให้โมเดลแก้ไขตัวเองได้ การลดผลกระทบที่พวกเขาต้องทำสำหรับเนื้อหาที่สร้างโดย AI มักจะถามถึงสิ่งที่ผิดพลาดอยู่เสมอ บุคคลที่ดีที่สุดที่จะขอนั้นมาจากความหลากหลาย ความเสมอภาค และความพยายามในการอยู่ร่วมกัน
“องค์กรต่าง ๆ ต่างให้ปากคำกับโครงการริเริ่มของ DEI มากมาย” เพนน์กล่าว “แต่นี่คือจุดที่ DEI สามารถเปล่งประกายได้อย่างแท้จริง [มี] ทีมงานที่หลากหลาย … ตรวจสอบผลลัพธ์ของแบบจำลองและพูดว่า 'นี่ใช้ไม่ได้หรือใช้ได้' จากนั้นให้สร้างกระบวนการเช่น DEI ได้ให้ตราประทับการอนุมัตินี้”
วิธีที่บริษัทกำหนดและลดอคติในระบบเหล่านี้ทั้งหมดจะเป็นเครื่องหมายสำคัญของวัฒนธรรมของบริษัท
“แต่ละองค์กรจะต้องพัฒนาหลักการของตนเองเกี่ยวกับวิธีการพัฒนาและใช้เทคโนโลยีนี้” Paul Roetzer กล่าว “และฉันไม่รู้ว่ามันจะแก้ไขได้อย่างไร นอกจากระดับอัตนัยของ 'นี่คือสิ่งที่เราถือว่ามีอคติ และเราจะหรือไม่ใช้เครื่องมือที่ช่วยให้สิ่งนี้เกิดขึ้น”

รับ MarTech! รายวัน. ฟรี. ในกล่องจดหมายของคุณ
ดูข้อกำหนด

เรื่องที่เกี่ยวข้อง
ใหม่บน MarTech