- พฤติกรรมการไลค์ แชร์ และคอมเมนต์ของเรา ทำให้เกิด “ฟองตัวกรอง” หรือ “ห้องเสียงสะท้อน (echo chamber)” เลือกแสดงข่าวสารของเพื่อนที่คิดคล้ายกัน ตัวกรองแบบนี้ใช้การได้ดีเป็นพิเศษกับ “ความคิดเห็นทางการเมือง”!
- สร้างความเสียหายร้ายแรงกับความคิดของเรา เพราะไม่ว่าจะไลค์ แชร์ หรือคอมเมนต์อะไรไป ก็เหมือนจะมีแต่คนที่เห็นด้วย โดยเฉพาะในกรณีที่เรายกเลิกเพื่อนที่ไม่เห็นด้วย หรือปิดการแสดงโพสต์ของคนนั้น ซึ่งยิ่งเพิ่มความเข้มข้นของการกรองให้หนักแน่นมากขึ้น
- ตัวกรองอีกขั้น คือ อคติยืนยันความเชื่อ (confirmation bias) เลือกดูแต่ข้อมูลที่สนับสนุนความเชื่อ หากเจอข้อมูลที่ขัดแย้ง หรือแม้แต่กำกวมกับทัศนคติที่มีอยู่ จะก่อกวนอารมณ์ความรู้สึก จนต้องทำเป็นมองไม่เห็น ทำว่าข้อมูลนั้นเป็นของปลอมจากผู้ไม่ประสงค์ดี หรือแย่สุดคือตีความเข้าตัวเอง บางคนจึงกลายเป็นคนที่มีความคิดและพฤติกรรมแบบสุดขั้ว
หากพิจารณาจากประวัติศาสตร์หรือความจริงรอบตัวให้ดี เราจะพบว่าการแบ่งพรรคแบ่งพวก ถือเป็นเรื่องปกติสามัญเป็นอย่างยิ่ง การแบ่งฝักแบ่งฝ่ายนำไปสู่ผลตอบสนองหลายรูปแบบ เช่น การทะเลาะเบาะแว้ง การต่อสู้แย่งชิงอำนาจและทรัพยากร การเหยียดชาติพันธุ์ การรุกรานในนามของความเชื่อหรือศาสนา และการเกิดระบบความคิดหรือระบบการเมืองมากมายหลายแบบ ฯลฯ
ในยุคของข้อมูลข่าวสารและไอทีอย่างปัจจุบัน ความสลับซับซ้อนของระบบไอที ซึ่งก็รวมทั้งรูปแบบของอัลกอริทึมที่เอไอใช้ ส่งผลต่อความคิด ความเชื่อ และพฤติกรรมของคนเราอย่างน่าสนใจ และน่าจะคาดไม่ถึงสำหรับคนจำนวนมาก
ใครๆ ก็คิดเหมือนกับเรา?
คนส่วนใหญ่ใช้ชีวิตหลายชั่วโมงในแต่ละวันไปในโซเชียลมีเดีย ทั้งเพื่อการติดต่อสื่อสาร พูดคุย พักผ่อน หรือแม้แต่เพื่อการทำงาน เช่น ที่มีคนชอบสั่งงานและตามงานผ่านแอปไลน์ เคยสงสัยไหมครับว่า ข้อมูลที่เราได้รับผ่านโซเชียลมีเดียในทุกวันนั้น
มีความรอบด้านหรือมีความเป็นกลางมากเพียงใด?
มีการศึกษาเรื่องนี้อยู่พอสมควร เช่น งานวิจัยของแบ็คชาย (Bakshy) และคณะใน ค.ศ. 2015 [1] พวกเขาตรวจสอบบัญชีเฟซบุ๊กของผู้ใช้ชาวอเมริกัน 10.1 คน โดยพยายามวัดปฏิสัมพันธ์ที่คนเหล่านี้มีให้กับเพื่อนที่มีทัศนคติและเครือข่ายเพื่อนฝูงที่คล้ายกัน เทียบกันกับเพื่อนอีกกลุ่มที่มีทัศนคติและเครือข่ายเพื่อนฝูงที่ค่อนข้างจะคิดต่างกัน
สิ่งที่พบก็คือ ปฏิสัมพันธ์ (กดไลค์, แชร์ หรือคอมเมนต์) ของพวกเขาทำให้ระบบอัลกอริทึมของเฟซบุ๊ก เลือกแสดงโพสต์และแชร์ของเพื่อนๆ ที่คิดคล้ายๆ กันมากกว่า พูดอีกอย่างก็คือ พฤติกรรมการไลค์ แชร์ และคอมเมนต์ของเรา ได้ทำให้เกิดสิ่งที่เรียกว่า “ฟองตัวกรอง” หรือฟิลเตอร์บับเบิล (filter bubble)
ที่น่าสนใจมากเป็นพิเศษคือ ตัวกรองแบบนี้ใช้การได้ดีเป็นพิเศษกับ “ความคิดเห็นทางการเมือง”!
เราอยู่ในห้องเสียงสะท้อน
ลองจินตนาการเป็นภาพครึ่งวงกลมล้อมรอบตัวเราที่คอยสกัดกั้นข้อความ รูปภาพ และความเห็นของคนที่ติดต่างจากเราออกไป นับวันก็จะยิ่งกรองดีขึ้นเรื่อยๆ โดยพบว่าหากคุณเป็นพวกเสรีนิยม จะมีเนื้อหาที่ไม่เข้ากับสไตล์แนวคิดหลุดรอดมาให้เห็นแค่ 24% ขณะที่พวกอนุรักษ์นิยมจะเห็นอยู่ถี่ราว 35% นี่เองคือสาเหตุที่แม้จะเพิ่มชื่อเป็นเพื่อนกันแล้วก็ตาม คุณอาจจะไม่เห็นเพื่อนที่ “เห็นไม่ตรงกัน” สักเท่าไหร่
นอกจากชื่อเรียกว่า “ฟองตัวกรอง” ยังมีอีกชื่อหนึ่งที่อาจจะเคยได้ยินกันก็คือ “ห้องเสียงสะท้อน (echo chamber)” ตามลักษณะที่ปรากฏของข้อมูลและความคิดเห็นที่เข้ากับความคิดของเราที่ก้องหรือสะท้อนกลับไปมาในหัว ให้เราได้เห็นได้ยินอยู่ตลอดเวลาที่ใช้โซเชียลมีเดีย
เรื่องนี้สร้างความเสียหายร้ายแรงกับความคิดของเรา หากไม่ตระหนักรู้ในเรื่องนี้
เพราะจะเกิดความรู้สึกว่า ไม่ว่าจะไลค์ แชร์ หรือคอมเมนต์อะไรไป ก็เหมือนจะมีแต่คนที่เห็นด้วยกับเราเป็นส่วนใหญ่ โดยเฉพาะอย่างยิ่งในกรณีที่เรายกเลิกเพื่อนที่ไม่เห็นด้วย หรืออาจจะเกรงใจแค่กดให้ไม่แสดงโพสต์ของคนนั้นให้เห็น ซึ่งยิ่งจะไปเพิ่มความเข้มข้นของการกรองให้หนักแน่นมากขึ้นไปอีก
มีการสำรวจของสถาบันรอยเตอร์ร่วมกับมหาวิทยาลัยออกซ์ฟอร์ด [2] ที่ทำให้ทราบว่า มีการแชร์ข้อมูลปลอมหรือผิดผ่านสื่อต่างๆ แตกต่างกันไปในแต่ละประเทศ ที่พบน้อยสุดคือ 37% ในเยอรมนี ขณะที่มากสูงคือ 82% ในบราซิล มีหลักฐานว่าข้อมูลผิดๆ เกี่ยวกับโคโรนาไวรัสเผยแพร่ผ่านโซเชียลมีเดียมากกว่าสื่อรูปแบบเก่าๆ
เฟซบุ๊กที่เป็นโซเชียลมีเดียที่แพร่หลายที่สุด จึงกลายเป็น “ช่องทางหลัก” ในการเผยแพร่ข้อมูลผิดๆ
รายงานฉบับเดียวกันนี้ยังให้ข้อมูลอีกว่า สมาร์ตโฟนกลายมาเป็นอุปกรณ์ในการรับรู้ข่าวของผู้คนทั่วโลก (73% ผู้ใช้สมาร์ตโฟนอ่านข่าวผ่านอุปกรณ์ดังกล่าว) ยิ่งช่วงล็อกดาวน์ก็ยิ่งมีการใช้งานในลักษณะนี้เพิ่มขึ้นอีก ขณะที่การอ่านข่าวผ่านเครื่องคอมพิวเตอร์หรือแท็บเลตเท่าเดิมหรือไม่ก็ลดลงแล้วแต่พื้นที่
อีกเรื่องที่น่าสนใจและใกล้ตัวมากคือ สมาร์ตโฟนกลายมาเป็นอุปกรณ์ที่ทรงพลังมากขึ้นในฐานะตัวกลางในการรับข้อมูลข่าวสารในประเทศเอเชียจำนวนมาก ทั้งอินเดีย อินโดนีเซีย เกาหลีใต้ และไทย
เอไอในแอปบนสมาร์ตโฟนจึงมีบทบาทใหม่เป็นผู้เลือกสรรข่าวสารให้กับผู้ใช้งานอุปกรณ์ดังกล่าว
กรองอีกชั้นด้วยอคติ
นอกจากรับข้อมูลข่าวสารที่ผ่านการกรองมาแล้วชั้นหนึ่ง ยังมีปัจจัยที่เป็นตัวเสริมตามธรรมชาติอีกอย่างหนึ่งที่ทำให้เรื่องต่างๆ เลวร้ายลงไปอีก นั่นก็คือโดยธรรมชาติของมนุษย์นั้น เรามี “อคติ” ประจำตัวอยู่กันทุกคน มากน้อยแตกต่างกันไป คล้ายกับการที่เรามองทุกอย่างผ่านแว่นตาที่เราเลือกเลนส์ไว้ด้วยตัวเอง ภาพจึงมีสีเทา สีฟ้า สีเขียว หรือสีชมพู แล้วแต่เราจะเลือกเลนส์ไว้อย่างไร
ภาษาวิชาการเรียกปัจจัยนี้ว่า อคติยืนยันความเชื่อ (confirmation bias)
อคติที่ว่านี้ก็คือ แนวโน้มที่คนสักคนจะค้นหาและแปลความข้อมูล รวมทั้งเลือกจำ เลือกนำมาใช้ยืนยันความเชื่อ หรือการให้คุณค่ากับสิ่งต่างๆ ที่มีอยู่แล้วในใจก่อนหน้านั้น
ผู้คนแสดงอคติผ่านการเลือกอ่าน เลือกดูแต่ข้อมูลที่สนับสนุนความเชื่อ หากเจอข้อมูลที่ขัดแย้งหรือตรงกันข้าม หรือแม้แต่กำกวมกับทัศนคติที่มีอยู่ในตอนนั้น จะก่อกวนอารมณ์ความรู้สึก จนต้องทำการอย่างใดอย่างหนึ่งคือ ทำเป็นมองไม่เห็น หรือไม่ก็แสร้งทำเป็นว่าข้อมูลเหล่านั้นเป็นของปลอมจากผู้ไม่ประสงค์ดีทำขึ้น หรือแย่สุดคือตีความเข้าตัวเอง แม้ว่าตัวข้อมูลเองจะไม่ได้เป็นเช่นนั้นก็ตาม
ข่าวร้ายก็คืออคติทำนองนี้ไม่อาจกำจัดให้หมดไปได้ แม้ว่าเราจะรู้ว่าเราอาจจะมีอคติกับเรื่องนั้นๆ ก็ตาม แต่ข่าวดีก็คืออาจจะฝึกทักษะการคิดเชิงเหตุผลหรือตรรกะ (logical thinking) หรือการคิดเชิงวิพากษ์วิจารณ์ (critical thinking) ก็จะช่วยให้ลดอคติทำนองนี้ได้บ้าง
ที่ยิ่งไปกว่านั้นก็คือ เมื่อเวลาผ่านไปเราจะยิ่งจดจำข้อมูลต่างๆ ได้น้อยลงเรื่อยๆ ตามธรรมชาติ แต่เรามักจะเลือกจำไว้แค่บางอย่าง (ภาษาวิชาการเรียก selective memory) ซึ่งก็มักจะเป็นความจำที่ช่วยตอกย้ำ “ความเชื่อ” ต่างๆ ที่มีอยู่ในตัวและสะสมเพิ่มมากขึ้นเรื่อยๆ ตลอดเวลาอย่างไม่สมดุล
บางคนจึงกลายเป็นคนที่มีความคิดและพฤติกรรมแบบ “สุดขั้ว” เอาง่ายๆ โดยเฉพาะคนที่มีความเชื่อมั่นในตัวเองสูงมากๆ
มีการศึกษาอคติแบบนี้มาตั้งแต่ทศวรรษ 1960 จนถึงปัจจุบัน โดยพบว่าอคติทำนองนี้ทำให้เกิดการตัดสินใจผิดพลาดทั้งในด้านการบริหารจัดการองค์กร วิทยาศาสตร์ การเงิน การแพทย์ และแม้แต่ในทางด้านการเมือง โดยหลักๆ ก็เกิดจากความเชื่อมั่นในตัวเองมากจนเกิดควร มองไม่เห็นหรือไม่เชื่อในหลักฐานที่มองเห็นอยู่ตรงหน้า เพราะเชื่อว่าหลักฐานพวกนั้นไม่จริง
สำหรับในโลกออนไลน์นั้น อคติยืนยันความเชื่อขยายตัวใหญ่โตขึ้นจากฟองตัวกรองข้อมูล ซึ่งเป็นผลมาจากอัลกอริทึมของเว็บหรือเพจต่างๆ เพื่อตอบสนองต่อบุคคลแต่ละคนตามนิสัยและความเชื่อ นี่เองคือการมาบรรจบกันของตัวกรองในหัวสมองมนุษย์และตัวกรองจากรหัสคำสั่งของเอไอ
ดังนั้น ทุกครั้งที่คุณมองเห็นและเข้าใจคนสักคน หรือเหตุการณ์สักเหตุการณ์ และคิดเอาว่าคนรอบตัวหรือคนส่วนใหญ่ของประเทศ (หรือแม้แต่ของโลก) ยืนอยู่ข้างเดียวกับคุณนั้น ต้องระวังให้จงหนักว่า
การตัดสินใจของคุณนั้น อาจเป็นการตัดสินใจผ่านข้อมูลที่กรองถึง 2 ชั้น จนบิดเบี้ยวไม่ตรงกับความจริงด้วยอคติจากเอไอและตัวคุณเอง!
เอกสารอ้างอิง
[1] E. Bakshy et. Al. Political science. Exposure to ideologically diverse news and opinion on Facebook, May 2015, Science 348 (6239), DOI: 10.1126/science.aaa1160
[2] Nic Newman et al. Reuters Institute Digital News Report 2021. 2021 (10th ed.), Reuters Institute and University of Oxford.