Skip to main content
sharethis

The Verge นำเสนอสภาพการทำงานที่น่าเป็นห่วงของกลุ่มผู้ตรวจสอบดูแลเนื้อหาของเฟสบุ๊คซึ่งคัดกรองข้อมูลนับล้านผ่านทางโซเชียลมีเดียทุกวัน พวกเขาต้องทนดูเนื้อหาชวนให้รู้สึกแย่ต่อใจไม่ว่าจะเป็นความรุนแรงหรือวาจาปลุกปั่นความเกลียดชัง และนอกจากผลกระทบทางใจต่อการเผชิญเนื้อหาเหล่านี้ซ้ำๆ แล้ว สภาพในที่ทำงานของพวกเขาก็ย่ำแย่และมืดมน ไม่ได้ช่วยเหลือแก่พนักงานมากพอด้วย

ที่มาของภาพประกอบ: Adobe Stock/pxhere.com

บทความของ The Verge ระบุถึงประสบการณ์ของพนักงานที่ชื่อ 'โคลอี' ผู้ที่สมัครทำงานเป็นผู้ตรวจสอบดูแลเนื้อหา (Content Moderator) ของโซเชียลมีเดียเฟสบุ๊ค เธอเริ่มต้นการทำงานด้วยการฝึกงานเป็นเวลา 3 สัปดาห์ครึ่ง การฝึกงานดังกล่าวคือการที่เธอต้อง "ทำให้ตัวเองใจแข็งขึ้น" โดยทนดูโพสต์ที่แย่ต่อใจต่างๆ ทั้งภาพเปลือย, การใช้ความรุนแรง และวาจาสร้างความเกลียดชังหรือเฮทสปีช

ในการฝึกงาน-ทดสอนงาน โคลอีต้องทำการคัดกรองเนื้อหาต่างๆ ต่อหน้าผู้ฝึกงานให้เธอซึ่งล้วนแต่เป็นคนที่เธอไม่เคยเห็นหน้ามาก่อน เริ่มต้นโดยการเดินเข้าไปที่หน้าห้อง มีจอมอนิเตอร์นำเสนอภาพวิดีโอให้เธอกด "เริ่มเล่น" เมื่อเธอเริ่มเล่นวิดีโอนี้ก็มีฉากที่คนกำลังสังหารชายคนหนึ่งด้วยการแทงหลายสิบครั้งในขณะที่ชายผู้เป็นเหยื่อกรีดร้องและร้องขอชีวิต งานของโคลอีคือการบอกคนในห้องว่าควรจะลบโพสต์นี้ออกหรือไม่ โดยที่โคลอีอธิบายต่อคนในห้องด้วยเสียงสั่นเครือว่าตามกฎมาตรฐานชุมชนของเฟสบุ๊คข้อ 13 ระบุห้ามไม่ให้มีการนำเสนอภาพการฆาตกรรมบุคคลคนหนึ่งหรือมากกว่าหนึ่งคน

หลังจากนั้นโคลอีรู้สึกอยากจะร้องไห้แต่ก็ต้องทำการทดสอบต่อไป เธอไม่สามารถตั้งสมาธิกับการพิจารณาโพสต์ต่อไปได้ เธอจึงออกจากห้องแล้วก็เริ่มร้องไห้จนทำให้หายใจไม่สะดวก ไม่มีใครพยายามปลอบใจเธอ ในที่ทำงานมีผู้ให้คำปรึกษาประจำบริษัทแต่สิ่งที่โคลอีมองเห็นจากกระบวนการให้คำปรึกษาคือการส่งเสริมให้เธอกลับมาทำงานต่อให้ได้เท่านั้น

นี้คือสิ่งที่พนักงานราวหนึ่งหมื่นกว่าคนต้องเผชิญจากการทำงานเป็นผู้ตรวจสอบดูแลเนื้อหาของเฟสบุ๊คทุกวัน ไม่ว่าจะจากที่ทำงานในฟินิกซ์ไซต์ราว 1,000 คนหรือพนักงานในที่อื่นๆ ทั่วโลกราว 15,000 คน ซึ่งทางเฟสบุ๊คดำเนินการจ้างเหมาช่วงให้คนงานจากบริษัทต่างๆ ทำหน้าที่ดูแลเนื้อหาเหล่านี้อีกทอดหนึ่ง

เรื่องที่แน่มากกว่านั้นสำหรับพนักงานที่ทำหน้าที่ผู้ตรวจสอบดูแลเนื้อหาเหล่านี้คือ พวกเขาไม่สามารถพูดคุยขอคำปรึกษากับใครได้เลยนอกสถานที่ทำงานเนื่องจากเหตุผลเรื่องข้อมูลส่วนบุคคลและความเป็นส่วนตัว รวมถึงต้องปิดบังสถานะการทำงานของตัวเองเพื่อป้องกันไม่ให้คนที่ไม่พอใจการพิจารณาเนื้อหาพยายามตามหาพนักงานเพื่อให้ทำตามที่พวกเขาต้องการ แต่การที่พูดระบายกับคนนอกไม่ได้เช่นนี้ทำให้เกิดผลลัพธ์ทางลบต่อสภาพจิตใจของพวกเขา บางคนเริ่มพูดเล่นมุขตลกเกี่ยวกับการฆ่าตัวตาย สูบกัญชาช่วงระหว่างพักเพื่อทำให้อารมณ์ความรู้สึกด้านชา

"มันเป็นสถานที่ๆ พนักงานอาจจะถูกไล่ออกได้เพียงเพราะทำอะไรผิดพลาดสองสามอย่างภายในหนึ่งสัปดาห์ และเป็นที่ๆ คนที่ยังอยู่ใช้ชีวิตด้วยความกลัวว่าอดีตเพื่อนร่วมงานจะกลับมาแก้แค้น" The Verge ระบุในรายงาน

ไม่เพียงแค่การทำให้คนกลายเป็นคนมืดมนลง สภาพการทำงานที่ต้องเจอกับข้อความหรือเนื้อหาอื่นๆ ทางโซเชียลมีเดียซ้ำๆ ทำให้บางครั้งพวกเขาต้องเจอเนื้อหาทฤษฎีสมคบคิดแบบตกขอบป้อนเข้าสู่ตัวเองเรื่อยๆ จนบางคนก็กลายเป็นคนมีความคิดตกขอบเสียเอง เช่น พนักงานรายหนึ่งที่เดินเร่พูดถึงแนวคิดเรื่องโลกแบนในที่ทำงาน อดีตพนักงานรายหนึ่งเริ่มกังขาว่าการสังหารหมู่ชาวยิวในสงครามโลกครั้งที่ 2 ไม่เคยเกิดขึ้นจริง หรือบางคนก็กลายเป็นคนหวาดระแวงอย่างหนักถึงขนาดกางแผนที่วางแผนเส้นทางหนีกลับบ้านไว้ทุกทางเท่าที่เป็นไปได้ นอนโดยมีปืนวางอยู่ข้างตัว เพราะเขาไม่เชื่อว่าเหตุการณ์ 9-11 เป็นการโจมตีของผู้ก่อการร้ายอีกต่อไป

ภายใต้สภาพการทำงานแย่ๆ แบบนี้ พนักงานอย่างโคลอีต้องทนกับสภาพแบบนี้ด้วยค่าแรงเพียง 15 ดอลลาร์สหรัฐฯ ต่อชั่วโมง (ราว 450-500 บาท) ซึ่งถือว่ามากกว่าค่าแรงขั้นต่ำในแอริโซนา 4 ดอลลาร์เท่านั้น ขณะที่ทางเฟสบุ๊คใช้วิธีการจ้างเหมาช่วงเพราะทำให้พวกเขาจ่ายน้อยลง ขณะเดียวกันซีอีโออย่างมาร์ค ซักเคอเบิร์กก็เคยเตือนนักลงทุนว่าการลงทุนด้านความปลอดภัยจะทำให้บริษัทมีผลกำไรลดลง แต่ในความเป็นจริงแล้วพวกเขามีผลกำไรเพิ่มขึ้นจากปีก่อนหน้านี้ถึงร้อยละ 61 โดยในไตรมาสล่าสุดบริษัทมีกำไรถึง 6,900 ล้านดอลลาร์

นอกจากกรณีของสภาพการจ้างงานแล้ว The Verge ยังนำเสนอเรื่อง "มาตรฐานชุมชน" ของเฟสบุ๊คที่มีปัญหาเมื่อนำมาใช้กับผู้ใช้งานหลายพันล้านคนทั่วโลกที่มีวัฒนธรรมต่างกัน แต่พนักงานตรวจสอบเนื้อหาก็ถูกอบรมมาให้ปฏิบัติตามกฎจำนวนหนึ่งเท่านั้นโดยที่ไม่ได้คำนึงถึงบริบททางการเมืองหรือบริบททางวัฒนธรรมเลย ซึ่งบางครั้งเรื่องของบริบทและความกำกวมของเนื้อหาก็ทำให้เกิดข้อโต้เถียงกันในหมู่คนดูแลเนื้อหา

หนึ่งในพนักงานที่ชื่อมิเกลเป็นคนที่ปฏิบัติตามนโยบายการตรวจสอบเนื้อหานี้อย่างแข็งขัน แต่เขาก็มองว่ากฎเหล่านี้ไม่เข้าท่าสำหรับเขา เช่นมีโพสต์หนึ่งที่ระบุถึงคนดำด้วยคำเชิงเหยียดแต่มีคำที่ฟังดู "บวก" กลับอนุญาตให้ปล่อยผ่านได้ตามกฎของเฟสบุ๊คเพียงเพราะนโยบายระบุว่ามันเป็น "เนื้อหาที่แสดงออกเชิงบวกอย่างเห็นได้ชัด" หรืออีกตัวอย่างหนึ่งคือ "คนที่เป็นออทิสติกควรจะถูกทำหมัน" เป็นสิ่งที่มิเกลมองว่าเป็นการละเมิดแต่ตามนโยบายกลับปล่อยให้ผ่านไปได้โดยอ้างว่าในนโยบายไม่ได้มีการคุ้มครองคนที่เป็นออทิสติกแบบเดียวกับที่คุ้มครองเชื้อชาติหรือเพศสภาพ (เช่น ถ้าเป็นคำว่า "ผู้ชายควรจะถูกทำหมัน" จะถูกลบออกทันที)

สำหรับคนทำงานดูแลเนื้อหาแล้วพวกเขาจะถูกตรวจสอบอีกทอดหนึ่งด้วยสิ่งที่เรียกว่า "คะแนนความแม่นยำ" (accuracy score) มิเกลเล่าว่าเวลาเจอโพสต์ต่างๆ เขาต้องทำอยู่สองขั้นตอน ขั้นตอนแรกคือพิจารณาว่ามันละเมิดมาตรฐานชุมชนหรือไม่ และอีกขั้นตอนต่อมาคือการเลือกเหตุผลว่าทำไมมันถึงละเมิดมาตรฐานชุมชน ถ้าพวกเขาเลือกเหตุผลผิดแม้จะเลือกข้อมูลที่ควรจะนำออกได้ถูกในชั้นตอนแรกคะนนความแม่นยำของเขาก็จะลดลง อย่างไรก็ตามผู้ที่ตรวจสอบความแม่นยำของเขาก็เป็นคนด้วยกันที่ได้เงินค่าจ้างเยอะกว่าเขาเล็กน้อย ทำให้มิเกลมองว่าการตัดสินใจว่าการจัดการกับโพสต์ต่างๆ นั้น "แม่นยำ" หรือไม่ขึ้นอยู่กับว่าพนักงานดูแลกับคนที่ตรวจสอบเขาอีกทอดหนึ่งเห็นตรงกันหรือไม่เท่านั้น "ความแม่นยำถูกตัดสินจากการตกลงกันได้เท่านั้น" มิเกลกล่าว

ไม่เพียงเท่านั้นสภาพการทำงานของพนักงานตรวจสอบดูแลเนื้อหายังเต็มไปด้วยกฎยิบย่อยที่ไม่คำนึงถึงบริบทความแตกต่างทางวัฒนธรรมเช่นกัน เช่นการที่มีทีมผู้นำคอยกะเกณฑ์พนักงานในช่วงเวลาต่างๆ แม้แต่ในช่วงเวลาพักเล็ก ซึ่งพนักงานเหล่านี้เรียกว่าเป็น "ช่วงคุณภาพชีวิตที่ดี" เพราะมันเป็นเวลาเล็กๆ น้อยๆ 9 นาทีต่อวันที่พวกเขาจะได้รับจากการเผชิญกับสิ่งเลวร้ายสารพัด แต่ความที่ไม่คำนึงถึงความแตกต่างทางวัฒนธรรมก็ทำให้มีการสั่งห้ามพนักงานชาวมุสลิม 2 ละหมาดในช่วงเวลาพักนี้

ความเจ็บปวดของพนักงานไม่เพียงแค่มีอยู่ในช่วงที่ทำงานอยู่เท่านั้น แม้กระทั่งพนักงานที่ออกจากงานไปแล้วก็ได้รับผลกระทบต่อสุขภาพจิตจากการทำงานเช่นนี้ติดต่อกันเป็นเวลานาน มีพนักงานหลายคนที่บอกกับโคลอีว่าพวกเขาเผชิญกับอาการของภาวะสะเทือนขวัญหลังเหตุการณ์รุนแรงแบบที่ได้รับมามือสอง (secondary traumatic stress) คือมีความรู้สึกวิตกกังวล, นอนไม่พอ, เหงา, รู้สึกแปลกแยก และอาการอื่น ซึ่งกลุ่มอาการนี้คล้ายกับโรคภาวะสะเทือนขวัญหลังเหตุการณ์รุนแรงแบบเผชิญกับตัวเอง (PTSD) เคยมีอดีตพนักงานฟ้องร้องบริษัทรับจ้างเหมาช่วงในกรณีที่ทำให้เกิด "แผลทางใจ" จากการที่บริษัท "ล้มเหลวในการจัดให้สถานที่ทำงานปลอดภัย"

โคลอีเองก็มีอาการในลักษณะเดียวกันหลังจากที่เธอลาออกจากงาน เธอเกิดอาการแพนิคหรือตื่นกลัวอย่างรุนแรงตอนที่เธอชมภาพยนตร์เรื่อง Mother! จากการที่มันกระตุ้นความทรงจำให้เธอนึกถึงวิดีโอทดสอบที่มีคนถูกแทงซ้ำๆ นั่นทำให้เธอเริ่มชมภาพยนตร์ที่มีความรุนแรงไม่ได้ และเคยมีกรณีตอนที่เธอนอนหลับอยู่บนเก้าอี้โซฟาแล้วก็ได้ยินเสียงปืนกลทำให้เธอมีอาการแพนิค

แต่ถึงแม้จะเกิดสิ่งเลวร้ายทางใจเหล่านี้ต่อคนทำงาน ในรายงานของ The Verge ก็ระบุว่าทางบริษัทไม่ได้ให้การสนับสนุนการให้คำปรึกษาหรือการบำบัดทางใจต่อพนักงานของพวกเขาหลังจากที่พนักงานเหล่านี้ออกจากบริษัทไปแล้ว

รายงานของ The Verge จึงกลายเป็นการเปิดม่านให้เห็นว่าเบื้องหลังของโซเชียลมีเดียที่ผู้คนใช้ในชีวิตประจำวันมีกลุ่มคนปิดทองหลังพระที่คอยดูแลเหนือหาให้มีความปลอดภัยแลกกับความบอบช่ำทางใจของตัวเอง แต่บุคคลเหล่านี้ก็ไม่ค่อยได้รับการพูดถึง และผู้คนเหล่านี้ก็เป็นมนุษย์ทั่วไปอย่างพวกเรา

"ถ้าพวกเราไม่ได้ทำงานนี้ เฟสบุ๊คคงจะน่าเกลียดเอามากๆ" พนักงานที่ชื่อลีกล่าว

เรียบเรียงจาก

THE TRAUMA FLOOR : The secret lives of Facebook moderators in America, The Verge, 25-02-2019

ร่วมบริจาคเงิน สนับสนุน ประชาไท โอนเงิน กรุงไทย 091-0-10432-8 "มูลนิธิสื่อเพื่อการศึกษาของชุมชน FCEM" หรือ โอนผ่าน PayPal / บัตรเครดิต (รายงานยอดบริจาคสนับสนุน)

ติดตามประชาไท ได้ทุกช่องทาง Facebook, X/Twitter, Instagram, YouTube, TikTok หรือสั่งซื้อสินค้าประชาไท ได้ที่ https://shop.prachataistore.net