การค้นหาคำตอบสำหรับปัญหาที่ระบุในการรั่วไหลของ Facebook ล่าสุดจะเป็นกระบวนการที่ซับซ้อน
เผยแพร่แล้ว: 2022-04-08แล้วเราได้เรียนรู้อะไรจากการเปิดเผยเอกสารและการวิจัยภายใน Facebook ครั้งล่าสุด
ไม่มากจริงๆ Frances Haugen อดีตวิศวกรของ Facebook ได้เปิดเผยชุดรายงานภายในชุดแรกจาก The Social Network เมื่อเดือนที่แล้ว ซึ่งระบุถึงข้อกังวลต่างๆ รวมถึงการดิ้นรนในการจัดการเนื้อหาต่อต้านวัคซีน ผลกระทบที่เป็นอันตรายจากการเปลี่ยนแปลงอัลกอริธึม และผลกระทบด้านสุขภาพจิตด้านลบของ Instagram ในวัยรุ่น
Haugen ได้เผยแพร่รายงานอีกกลุ่มหนึ่งในสัปดาห์นี้ ผ่านความร่วมมือกับสื่อสิ่งพิมพ์สำคัญๆ หลายฉบับ ซึ่งจะขยายการอ้างสิทธิ์เบื้องต้นเหล่านี้ และเพิ่มรายละเอียดเพิ่มเติมในด้านต่างๆ และทั้งหมดนั้นน่าสนใจ ไม่ต้องสงสัยเลย ทั้งหมดนั้นให้ความกระจ่างเกี่ยวกับสิ่งที่ Facebook รู้เกี่ยวกับระบบของตน และวิธีที่พวกเขาสามารถหว่านความแตกแยกและความวิตกกังวล และผลกระทบทางสังคมในวงกว้างของพวกเขา แต่การเปิดเผยส่วนใหญ่ยังเน้นย้ำถึงสิ่งที่เรารู้หรือสงสัยอยู่แล้ว การขาดการสนับสนุนภาษาท้องถิ่นของ Facebook ทำให้เกิดอันตรายเพิ่มขึ้นในบางภูมิภาค มีการใช้เครือข่ายสำหรับกิจกรรมทางอาญา ซึ่งรวมถึงการค้ามนุษย์ และ Facebook อาจให้ความสำคัญกับการเติบโตมากกว่าความปลอดภัยในการตัดสินใจบางอย่าง
ทั้งหมดนี้เป็นที่ทราบกันโดยทั่วไป แต่ข้อเท็จจริงที่ว่า Facebook ก็รู้เช่นกัน และการวิจัยของตัวเองยืนยันว่าเป็นเช่นนั้น มีความสำคัญ และจะนำไปสู่การดำเนินการรูปแบบใหม่ทั้งหมดต่อ The Social Network ในรูปแบบที่แตกต่างกัน
แต่มีบันทึกอันมีค่าอื่น ๆ ที่เราไม่ทราบว่าถูกซ่อนอยู่ในข้อมูลเชิงลึกของการวิจัยภายในหลายพันหน้า
องค์ประกอบสำคัญประการหนึ่งที่เน้นโดยนักข่าว Alex Kantrowitz เกี่ยวข้องกับอัลกอริธึมฟีดข่าวที่มีการโต้เถียงโดยเฉพาะ และวิธีที่ Facebook ทำงานเพื่อสร้างสมดุลระหว่างข้อกังวลกับการขยายเนื้อหาผ่านการทดลองต่างๆ
วิธีแก้ปัญหาหลักที่ Haugen ผลักดันในการปราศรัยครั้งแรกของเธอในการประชุมเกี่ยวกับการรั่วไหลของไฟล์ Facebook คือ เครือข่ายสังคมออนไลน์ควรถูกบังคับให้หยุดใช้อัลกอริธึมที่อิงตามการมีส่วนร่วมทั้งหมด ผ่านการปฏิรูปกฎหมายมาตรา 230 ซึ่งในมุมมองของ Haugen จะเปลี่ยนแรงจูงใจ สำหรับการมีส่วนร่วมของแพลตฟอร์มโซเชียล และลดอันตรายที่เกิดจากระบบของพวกเขา
ตามที่อธิบายโดย Haugen :
“ถ้าเรามีการกำกับดูแลที่เหมาะสม หรือถ้าเราปฏิรูป [มาตรา] 230 เพื่อให้ Facebook รับผิดชอบต่อผลที่ตามมาของการตัดสินใจจัดอันดับโดยเจตนา ฉันคิดว่าพวกเขาจะกำจัดการจัดอันดับตามการมีส่วนร่วม”
แต่นั่นจะได้ผลเหรอ?
ตามที่รายงานโดย Kantrowitz Facebook ได้ทำการทดลองเพื่อค้นหา:
“ในเดือนกุมภาพันธ์ 2018 นักวิจัยของ Facebook ปิดอัลกอริธึมการจัดอันดับฟีดข่าวสำหรับ .05% ของผู้ใช้ Facebook “จะเกิดอะไรขึ้นหากเราลบฟีดข่าวอันดับ?” พวกเขาถามในรายงานภายในสรุปการทดลอง การค้นพบของพวกเขา: หากไม่มีอัลกอริธึมฟีดข่าว การมีส่วนร่วมบน Facebook จะลดลงอย่างมาก ผู้คนซ่อนโพสต์มากขึ้น 50% เนื้อหาจาก Facebook Groups ขึ้นไปบนสุด และน่าประหลาดใจที่ Facebook สร้างรายได้ มากขึ้น จากผู้ใช้ที่เลื่อนดูฟีดข่าว”

การทดลองแสดงให้เห็นว่าหากไม่มีอัลกอริธึมในการจัดอันดับเนื้อหาตามปัจจัยต่างๆ ผู้ใช้จึงใช้เวลาในการเลื่อนเพื่อค้นหาโพสต์ที่เกี่ยวข้องมากขึ้น ทำให้เห็นโฆษณามากขึ้น และปิดบังเนื้อหาได้มากขึ้น ซึ่งเมื่อคุณดู ฟีดตามลำดับเวลาไม่มีประโยชน์อย่างต่อเนื่องในการลดโอกาสที่คุณจะเห็นสิ่งเดียวกันนี้มากขึ้นในอนาคต เนื้อหากลุ่มเพิ่มขึ้นเนื่องจากผู้ใช้มีส่วนร่วมในกลุ่มมากขึ้น (เช่น ทุกครั้งที่มีคนโพสต์ข้อมูลอัปเดตในกลุ่มที่คุณเป็นสมาชิกอยู่ คุณสามารถแสดงข้อมูลนั้นในฟีดของคุณ) ในขณะที่ความคิดเห็นและการกดถูกใจของเพื่อนคุณมากขึ้น ไปยังโพสต์ของเพจที่ปรากฏในฟีดผู้ใช้
โดยรวมแล้วเป็นเชิงลบ ไม่ใช่วิธีแก้ปัญหาที่บางคนโน้มน้าวใจ แน่นอน ส่วนหนึ่งมาจากพฤติกรรมที่เป็นนิสัย ในท้ายที่สุด ผู้ใช้มักจะหยุดติดตามบางเพจและผู้ที่โพสต์เป็นจำนวนมาก พวกเขาจะออกจากบางกลุ่มที่พวกเขาไม่สนใจ และพวกเขา' d เรียนรู้วิธีใหม่ในการควบคุมฟีดของพวกเขา แต่นั่นเป็นความพยายามอย่างมากจากผู้ใช้ Facebook และการมีส่วนร่วมของ Facebook จะต้องทนทุกข์เพราะเหตุนี้
คุณจะเห็นได้ว่าเหตุใด Facebook จึงลังเลที่จะใช้ตัวเลือกนี้ ในขณะที่หลักฐานในที่นี้ไม่ได้ชี้ว่าฟีดมีความแตกแยกน้อยลงเสมอไป และนี่คือก่อนที่คุณจะพิจารณาว่านักต้มตุ๋นและเพจจะได้เรียนรู้วิธีเล่นเกมระบบนี้ด้วย
เป็นข้อมูลเชิงลึกที่น่าสนใจเกี่ยวกับองค์ประกอบสำคัญของการโต้วาทีในวงกว้างเกี่ยวกับผลกระทบของ Facebook โดยอัลกอริธึมมักถูกระบุว่าเป็นสิ่งที่มีผลกระทบด้านลบมากที่สุด โดยเน้นที่เนื้อหาที่จุดประกายการมีส่วนร่วม (เช่น การโต้เถียง) เพื่อให้ผู้คนอยู่บนแพลตฟอร์ม นานขึ้น
จริงหรือ? ฉันหมายความว่า มีกรณีที่ชัดเจนว่าระบบของ Facebook ปรับให้เหมาะสมสำหรับเนื้อหาที่มีแนวโน้มว่าจะทำให้ผู้ใช้โพสต์ และวิธีที่ดีที่สุดในการกระตุ้นให้เกิดการตอบสนองคือผ่านปฏิกิริยาทางอารมณ์ ความโกรธและความสุขเป็นตัวกระตุ้นที่แข็งแกร่งที่สุด ดูเหมือนว่ามีแนวโน้มว่าอัลกอริธึมของ Facebook ไม่ว่าจะตั้งใจหรือไม่ก็ตาม จะขยายการโพสต์ที่มีการโต้แย้ง ซึ่งสามารถเพิ่มความแตกแยกได้ แต่ทางเลือกอาจจะไม่ดีขึ้นมาก
แล้ววิธีที่ดีที่สุดคืออะไร?
นั่นคือองค์ประกอบสำคัญที่เราต้องให้ความสำคัญในตอนนี้ แม้ว่าข้อมูลเชิงลึกภายในเหล่านี้จะให้ความกระจ่างมากขึ้นในสิ่งที่ Facebook รู้และผลกระทบในวงกว้าง สิ่งสำคัญคือต้องพิจารณาด้วยว่าขั้นตอนต่อไปคืออะไร และวิธีที่เราจะใช้การป้องกันและกระบวนการที่ดีขึ้นเพื่อปรับปรุงการมีส่วนร่วมของโซเชียลมีเดีย
Facebook พยายามทำอะไร – ตามที่ Mark Zuckerberg CEO ของ Facebook ตั้งข้อสังเกตในการตอบสนองต่อการรั่วไหลของไฟล์ Facebook ครั้งแรก
“ หากเราต้องการที่จะเพิกเฉยต่อการวิจัย เหตุใดเราจะสร้างโครงการวิจัยชั้นนำของอุตสาหกรรมเพื่อทำความเข้าใจประเด็นสำคัญเหล่านี้ตั้งแต่แรก หากเราไม่สนใจที่จะต่อสู้กับเนื้อหาที่เป็นอันตราย แล้วทำไมเราจะจ้างผู้คนจำนวนมากที่อุทิศตนเพื่อสิ่งนี้มากกว่าบริษัทอื่นในพื้นที่ของเรา - แม้แต่คนที่ใหญ่กว่าเรา ”
Facebook กำลังมองหาองค์ประกอบเหล่านี้อย่างชัดเจน ความกังวลก็ลงมาที่แรงจูงใจที่แท้จริง แต่จากการทดลองนี้ สิ่งที่สามารถแก้ไขได้ เนื่องจากการลบ Facebook ทั้งหมดจะไม่เกิดขึ้น – ดังนั้นวิธีใดที่เราสามารถใช้ข้อมูลเชิงลึกเหล่านี้เพื่อสร้างฟอรัมสาธารณะที่ปลอดภัย เปิดกว้างมากขึ้น และแตกแยกน้อยลง
นั่นเป็นคำถามที่ตอบยากกว่ามากและเป็นข้อกังวลที่ไตร่ตรองอย่างลึกซึ้งมากกว่าการรายงานเกี่ยวกับ Facebook ที่เกินความจริงจำนวนมากว่าเป็นคนเลว