Skip to main content
sharethis

เมื่อไม่นานมานี้มีเรื่องที่ชวนถกเถียงในสื่อไอทีต่างประเทศหลังจากที่มีคำวิจารณ์ว่าเฟซบุ๊ก "ลำเอียง" เพราะมักจะนำเสนอแต่เนื้อหาแบบเสรีนิยมในหัวข้อเป็นที่นิยมหรือ "trending" แต่เว็บไซต์ Vox ก็ตั้งข้อสังเกตต่างออกไปว่าสิ่งที่อคติคือคณะทำงานในเฟซบุ๊กเอง รวมถึงสื่อต่างๆ อย่างเดียวหรือ หรือตัวผู้ใช้เองก็มีส่วนในการทำให้ระบบคำนวณการปรากฏของข่าวสารมีแต่เรื่องที่ "ลำเอียง" ด้วย

17 พ.ค. 2559 เมื่อไม่นานมานี้ในเว็บไซต์ข่าวด้านไอทีอย่าง Gizmodo มีการกล่าวหาว่าการแสดงเนื้อหาในช่อง "trending" ซึ่งใช้แสดงหัวข้อที่กำลังเป็นที่นิยมในเฟซบุ๊กมีความลำเอียงเพราะนำเสนอเรื่องราวที่มีแนวคิดเสรีนิยมมากกว่า โดย Gizmodo กล่าวหาว่าทีมงานของเฟซบุ๊กเป็นผู้มีแนวคิดเสรีนิยมทำให้พวกเขายับยั้งการนำเสนอเรื่องราวในแบบอนุรักษ์นิยมไว้ เรื่องนี้ทำให้มีคนไม่พอใจและบอกว่าเนื้อหาในช่อง "trending" ของเฟซบุ๊กไม่ควรมีวาระทางอุดมการณ์การเมือง

มีผู้แสดงความไม่พอใจมากพอจนทำให้ มาร์ก ซักเคอร์เบิร์ก ตอบสนองพวกเขาด้วยการให้สัญญาว่าภายในไม่กี่สัปดาห์ข้างหน้าเขาจะเชิญคนชั้นนำจากฝ่ายอนุรักษ์นิยมและประชาชนจากทุกแนวคิดการเมืองร่วมประชุมเพื่อพูดคุยถึงมุมมองของพวกเขา 

เว็บไซต์ Vox ระบุว่าถึงแม้ความใส่ใจของผู้บริการเฟซบุ๊กอาจจะมากพอที่จะแก้ไขปัญหานี้ได้ แต่ในความเป็นจริงแล้วปัญหาเรื่อง "ความลำเอียง" ของหน้าข่าวสารของเฟซบุ๊กไม่ได้อยู่ที่ลูกจ้างของเฟซบุ๊กไม่กี่คนที่คอยควบคุมอยู่ แต่เป็นผลพวงมาจากลักษณะการใช้งานของตัวผู้ใช้เฟซบุ๊กเอง

เมื่อไม่นานมานี้มีการวิจัยโดยนักสถิติจากมหาวิทยาลัยออกซ์ฟอร์ด เซธ แฟล็กซ์แมน ที่ทำการสำรวจจากประวัติการเข้าเว็บไซต์ของชาวอเมริกัน 50,000 คน ที่อ่านข่าวทางอินเทอร์เน็ตเป็นประจำทำให้สามารถอธิบายปรากฏการณ์ที่เรียกว่า "ห้องเสียงสะท้อน" (echo chambers) หมายความว่าไม่ว่าจะฝ่ายเสรีนิยมหรืออนุรักษ์นิยมก็ตามพวกเขาจะเสพข่าวที่พวกเขาพึงพอใจเท่านั้น

หมายความว่าผู้คนจะเสพข่าวที่ตรงกับความเชื่ออุดมการณ์ของตัวเองอยู่แล้ว และอินเทอร์เน็ตก็ทำให้สามารถหาข่าวที่ตรงกับความเชื่อของตัวเองได้ง่ายขึ้น ในขณะที่หลักการคำนวณการปรากฏต่อผู้ชมหรือที่เรียกว่า "อัลกอริทึม" (algorithms) ของระบบค้นหากูเกิลและของหน้าข่าวสารเฟซบุ๊กทำให้พวกมันมีโอกาสสูงที่จะเสนอให้แต่เฉพาะข่าวที่ตรงกับความคิดเห็นของแต่ละคนอยู่แล้ว

Vox ระบุว่าทฤษฎีนี้เองที่ใช้อธิบายว่าทำไมคนที่แบ่งขั้วอย่างชัดเจนถึงไม่สามารถเข้าถึงความจริงโดยรวม จากที่ก่อนหน้านี้ผู้คนเข้าถึงข้อมูลข่าวสารทางหนังสือพิมพ์หรือโทรทัศน์ซึ่งพยายามจะมีความเป็นกลางและนำเสนอความคิดเห็นที่หลากหลาย แต่การเสพข่าวในแบบ "ห้องเสียงสะท้อน" เป็นไปได้ที่จะทำให้ผู้คนปิดกั้นตัวเองอยู่แต่กับเสียงที่ตัวเองต้องการได้ยิน และพวกเขาก็สร้างห้องเสียงสะท้อนนี้ด้วยตนเองในเทคโนโลยีปัจจุบันได้ง่ายมากแค่การค้นหาแหล่งข่าวที่ตัวเองต้องการแล้วก็ละเลยความคิดเห็นที่พวกเขาไม่พึงประสงค์และบางคนก็ไม่รู้ตัวว่าได้ทำเช่นนี้

งานวิจัยของแฟล็กซ์แมนถึงอธิบายได้ว่าเป็นตัวผู้ใช้งานเองที่มีความอคติแต่แรกอยู่แล้วจึงอยู่แต่กับสื่อที่ตัวเองเห็นด้วยโดยเฉพาะเมื่อค้นหาบทความในเฟซบุ๊กแทนการเข้าสู่เว็บข่าวโดยตรง ทั้งนี้ในงานวิจัยของแฟล็กซ์แมนยังพบว่าไม่สามารถหาวิธีการชี้วัดได้อย่างเป็นเอกฉันท์เกี่ยวกับอุดมการณ์ของสำนักสื่อต่างๆ จึงต้องมีการชี้วัดด้วยการใช้อุดมการณ์ของผู้อ่านแทน Vox ระบุว่า ตัวสื่อในสหรัฐฯ มักจะมีการแบ่งขั้วทางอุดมการณ์น้อยกว่าตัวผู้อ่านเอง

ทำให้ถึงแม้เฟซบุ๊กจะพยายามสร้างความเป็นกลางด้วยการปรับระบบการรับรองว่าข่าวไหนอยู่ในกระแส แต่มันก็ไม่ได้แก้ปัญหาที่มาจากตัวผู้ใช้เฟซบุ๊กเอง Vox ระบุว่าเฟซบุ๊กก็เป็นเช่นเดียวกับสื่อมีความพยายามทำให้ตัวเองเป็นกลางมากที่สุดเพราะต้องการให้เป็นเครื่องมือสำหรับทุกคน การถูกมองว่ามีความอคติลำเอียงจึงไม่ดีต่อธุรกิจของพวกเขา แต่ระบบคำนวณการปรากฏต่อผู้ชม (algorithms) ของเฟซบุ๊กเองก็พิจารณาจากผู้ใช้เองว่า คนๆ นี้มีแนวคิดยอมรับความหลากหลายทางเพศหรือไม่ คิดว่าโดนัลด์ ทรัมป์เป็นคนโง่ หรือคิดว่าฮิลลารี คลินตัน เป็นคนโกหกหรือไม่ algorithms ของเฟซบุ๊กก็คำนวณและจัดวางตัวเองเพื่อตอบสนองความต้องการไปตามรสนิยมทั้งทางการเมืองและไม่ใช่ทางการเมืองของผู้เสพข่าวสารเอง

Vox แสดงความกังวลว่าการที่เฟซบุ๊กถูกกล่าวหาว่ามีความลำเอียงทางการเมืองก็มีโอกาสที่พวกเขาจะหันมาพึ่งพา algorithms แทนการจัดการโดยมนุษย์มากขึ้นซึ่งจะส่งผลย้อนแย้งเพราะจะยิ่งทำให้เกิด "ห้องเสียงสะท้อน" มากยิ่งขึ้น จากการที่มนุษย์เรายังมีความรู้สึกถูกกดดันจากฝ่ายต่างๆ ให้ต้องทำตัวให้เป็นกลางที่สุด แต่ระบบคำนวณไม่ได้รับแรงกดดันเช่นนี้

ทั้งนี้การพยายามลดอคติของตัวผู้ใช้เองก็ไม่สามารถทำให้ชี้ชัดได้ว่าจะส่งผลดีต่อธุรกิจเฟซบุ๊กเองหรือไม่ เพราะสาเหตุที่เฟซบุ๊กสร้าง "ห้องเสียงสะท้อน" เช่นนี้มาตั้งแต่แรกเป็นเพราะผู้คนต้องการมัน


เรียบเรียงจาก

Facebook is going to get more politically biased, not less, Vox, 13-05-2016
http://www.vox.com/2016/5/13/11661156/facebook-political-bias

ร่วมบริจาคเงิน สนับสนุน ประชาไท โอนเงิน กรุงไทย 091-0-10432-8 "มูลนิธิสื่อเพื่อการศึกษาของชุมชน FCEM" หรือ โอนผ่าน PayPal / บัตรเครดิต (รายงานยอดบริจาคสนับสนุน)

ติดตามประชาไท ได้ทุกช่องทาง Facebook, X/Twitter, Instagram, YouTube, TikTok หรือสั่งซื้อสินค้าประชาไท ได้ที่ https://shop.prachataistore.net