เหตุที่ขอพาดหัวด้วยประเด็นดังกล่าวเนื่องจากมีรายงานว่า Facebook กำลังนำระบบเซนเซอร์คลิปวิดีโอที่ส่งขึ้นมาผ่านบริการ Live โดยใช้ A.I. เป็นตัวมอนิเตอร์ว่าเหมาะสมแก่การเผยแพร่หรือไม่แล้ว
โดยที่ผ่านมา Facebook เคยให้สิทธิแก่ผู้ใช้งานเป็นผู้แจ้งคลิปที่ไม่เหมาะสม จากนั้นจึงจะมีพนักงานเข้าไปตรวจสอบอีกทีว่าละเมิดนโยบายของบริษัทหรือไม่ แต่การมีผู้ใช้งานกว่า 1.65 พันล้านคนนั้น คงไม่เหมาะกับการใช้แรงงานในลักษณะนั้นอีกต่อไปแล้วนั่นเอง หรือหากจะแปลความว่า ความพยายามของ Facebook ในการนำ A.I. เข้ามาตรวจจับ Contents ที่ไม่เหมาะสมนี้มีมากขึ้นเรื่อยๆ ตามจำนวนผู้ใช้งานก็คงไม่ผิดนัก
จากเหตุนี้เอง Joaquin Candela ผู้อำนวยการฝ่าย Applied Machine Learning ของ Facebook ก็มองว่า อัลกอริธึมนั้นสามารถทำได้จริงๆ เช่น ใช้ในการตรวจจับภาพเปลือย ภาพการใช้ความรุนแรง หรือภาพใดๆ ก็ตามที่ไม่สอดคล้องกับนโยบายของบริษัท และถึงตอนนี้มันก็ถูกนำมาใช้กับการมอนิเตอร์บริการสตรีมมิ่งอย่าง Facebook Live กันแล้ว
แต่ก่อนหน้านี้ A.I. ของ Facebook ก็เคยพลาดเช่นกัน เช่นการรีพอร์ตภาพ “นาปาล์มเกิร์ล” เด็กหญิงในสงครามเวียดนามว่าเป็นภาพนู้ด จนเป็นข่าวครึกโครม
อย่างไรก็ดี การให้ A.I. รีพอร์ตคลิปวิดีโอ Live นั้นยังอยู่ในขั้นการทดลอง โดยมีโจทย์ท้าทายอยู่สองประการ นั่นคือ ความรวดเร็วของอัลกอริธึมในการประเมินคลิปต่างๆ และการจัดลำดับความสำคัญได้อย่างถูกต้อง แต่จากผลงานที่ผ่านมาของระบบอัตโนมัติจาก Facebook นั่นคือการประมวลผลรีพอร์ตหลายสิบล้านชิ้นในแต่ละสัปดาห์ โดยต้องนำมาเปรียบเทียบกันว่าชิ้นไหนซ้ำกันบ้าง ก็คงเป็นตัวยืนยันถึงความสามารถของระบบอัตโนมัติจาก Facebook ได้ดีพอควร
แต่ในมุมของความเป็นมนุษย์ หากวันหนึ่งวันใด Facebook ยกให้ A.I. ทำการคัดกรองข้อมูลก่อนจะปรากฏแก่สายตาของผู้ใช้งานจริงๆ อาจทำให้หลายคนไม่สบอารมณ์นักก็ได้
ที่มา: Indian Express