ความก้าวหน้าอย่างก้าวกระโดดของเทคโนโลยีนั้น มักจะมาพร้อมกับความน่ากลัวอยู่เสมอ บางอย่างถูกสร้างแล้วให้ประโยชน์ แต่บางอย่างก็ดูเหมือนจะให้โทษมากกว่าที่ควรจะเป็น เหมือนกับ เทคโนโลยี Deepfake ที่กำลังถูกจับตามองว่าเป็นเทคโนโลยีที่เป็นอันตรายต่อสังคมและสื่อในยุคปัจจุบัน เพราะพลังในการปลอมแปลงใบหน้าและเสียงของผู้คนบนคลิปวิดีโอ ที่สามารถทำได้แนบเนียนอย่างเหลือเชื่อ
แน่นอนว่าความน่าทึ่งของเทคโนโลยีนี้ไม่ได้ถูกนำมาใช้อย่างสร้างสรรค์ และมันกลายเป็นสิ่งที่ถูกดัดแปลงมาเพื่อท้าทายอุตสาหกรรมสื่อ บทความนี้เราจะมาลองทำความรู้จักมันดูว่า Deepfake น่ากลัวอย่างไร และเราจะรับมือมันได้อย่างไร
Deepfake คืออะไร?
Deepfake คือ เทคโนโลยี ที่ใช้สร้างสื่อสังเคราะห์ เพื่อปลอมแปลงลักษณะบุคคลต่าง ๆ ผ่านสื่อวิดีโอ รวมถึงภาพถ่ายและการบันทึกเสียง โดยใช้ประโยชน์จาก เทคโนโลยีปัญญาประดิษฐ์ (AI) ที่ถูกพัฒนาด้วยเทคโนโลยีการเรียนรู้แบบ "การเรียนรู้เชิงลึก (Deep Learning)" หรือโปรแกรมฝึกสอนของ AI ที่เลียนแบบการทำงานของโครงข่ายประสาทของมนุษย์ (Neural Network) ซึ่งทำให้ Deepfake มีความสามารถในการปลอมบุคคลต่าง ๆ ได้แนบเนียน จากการที่มันได้เรียนรู้ใบหน้าและเสียงของคนเหล่านั้นนั่นเอง
โดยคำว่า "Deepfake" มาจากการผสมคำว่า "Deep Learning" ที่แปลว่า การเรียนรู้อย่างลึกซึ้ง และคำว่า "Fake" ที่แปลว่า ปลอม เมื่อเอาสองคำนี้มารวมกันเป็น Deepfake นั้นคือการย่อมาจาก การลอกเลียนแบบความรู้อย่างลึกซึ้ง นั้นเอง
บางคนอาจเคยเห็นคลิปวิดีโอ Deepfake บ่อย ๆ จากการเล่นสนุกของชาวเน็ตที่เปลี่ยนใบหน้าของตัวเองใส่ตัวละครในภาพยนตร์ ซึ่งในกรณีแบบนั้นก็ดูเหมือนจะไม่เสียหายอะไร แต่มีคนบางกลุ่มได้นำเทคโนโลยีไปใช้ปลอมตัวเป็นบุคคลสำคัญ และสร้างสถานการณ์ให้เสื่อมเสียมาแล้ว และที่ทำให้มันกลายเป็นข่าวดังก็คือ กรณีของวิดีโอ "บารัค โอบามา" ที่อัดคลิปด่า "โดนัลด์ ทรัมป์" อดีตประธานาธิบดีสหรัฐอเมริกา ว่า "Dipshit" หรือ "ไอ้ทึ่ม" ซึ่งไม่น่าจะออกมาจากปากของบุคคลสำคัญอย่างเขาได้ และสุดท้ายผลปรากฏว่านั่นคือตัวปลอมที่ถูกสลับใบหน้าและปลอมเสียงด้วย Deepfake
เช่นเดียวกับ วิดีโอ "มาร์ค ซัคเคอร์เบิร์ก" ที่อัดคลิปนั่งโม้เรื่อง "การครอบครองข้อมูลของคนหลายพันล้านคน (เหมือนที่ Facebook ทำอยู่ทุกวันนี้) คือการเป็นผู้กุมอนาคตที่แท้จริง ของโลก" ซึ่งมันก็คือคลิป มาร์ค ที่ถูกปลอมทั้งหน้าและเสียงเหมือนกัน
พอกระแส Deepfake เริ่มเข้าสู่ด้านลบ จากความสนุกก็กลายเป็นภัยบนโลกไซเบอร์รูปแบบใหม่ทันที ทั้งยังมีการ คาดการณ์ว่าคลิปวิดีโอ Deepfake จำนวนมากถึง 96 % ล้วนเป็นสื่อลามกอนาจารที่ปลอมแปลงใบหน้าคนดังมาใส่แทนดาราหนังผู้ใหญ่ หรืออาจถูกนำไปใช้ในทางที่ผิด เช่นการสร้างข่าวปลอม การขู่กรรโชก การฉ้อโกง หรือสร้างความอับอายต่อสาธารณะของบุคคลต่าง ๆ
ภายหลังหลายประเทศเริ่มมีท่าทีควบคุม Deepfake ที่เข้มงวดมากขึ้น บางประเทศก็ออกกฎหมายแบนเลยทีเดียว และเมื่อเร็ว ๆ นี้ทั้ง Google, Facebook และ Twitter แพลตฟอร์มยักษ์ใหญ่ทั้งหลาย ก็เริ่มที่จะปรับมาตรการควบคุม Deepfake ที่จงใจสร้างความเสียหายให้ผู้อื่นด้วยเช่นกัน
จากความสนุกก็กลายเป็นภัยบนโลกไซเบอร์รูปแบบใหม่ทันที ทั้งยังมีการ คาดการณ์ว่าคลิปวิดีโอ Deepfake จำนวนมากถึง 96 % ล้วนเป็นสื่อลามกอนาจารที่ปลอมแปลงใบหน้าคนดังมาใส่แทนดาราหนังผู้ใหญ่ หรืออาจถูกนำไปใช้ในทางที่ผิด เช่นการสร้างข่าวปลอม การขู่กรรโชก การฉ้อโกง หรือสร้างความอับอายต่อสาธารณะของบุคคลต่าง ๆ
ภายหลังหลายประเทศเริ่มมีท่าทีควบคุม Deepfake ที่เข้มงวดมากขึ้น บางประเทศก็ถึงขั้นออกกฎหมายแบนเลยทีเดียว และเมื่อเร็ว ๆ นี้ทั้ง Google, Facebook และ Twitter ก็เริ่มมีมาตรการควบคุม Deepfake ที่จงใจสร้างความเสียหายให้ผู้อื่นเช่นกัน
Deepfake ทำงานอย่างไร?
การทำให้ Deepfake ออกมาสมจริง ต้องอาศัยกำลังจากคอมพิวเตอร์ระดับสูงและความสามารถของ AI ที่ผ่านการเรียนรู้และถอดรหัสแบบ "Deep learning" โดยวิธีสร้างก็มีหลายวิธีด้วยกัน ถ้าอธิบายแยกแค่เฉพาะสำหรับใบหน้าเท่านั้น ส่วนมากมักจะมีการให้โปรแกรม AI ได้เรียนรู้ใบหน้าของคนสองคนผ่านวิดีโอจำนวนมากก่อน ไม่ก็เลือกวิดีโอคลิปพื้นฐานที่อยากสลับใบหน้าลงไปก่อน แล้วค่อยเอาคลิปวิดีโอที่มีใบหน้าเป้าหมายในหลายมุมมองเป็นข้อมูลสำหรับ AI เพื่อให้มันได้ตรวจจับความคล้ายคลึงกันในด้านต่าง ๆ เช่น มุมหน้า การแสดงอารมณ์ การขยับปากพูด รวมถึงแวดล้อมอื่น ๆ เช่น แสงตกกระทบใบหน้าเป็นอย่างไรของบุคคลคนทั้งสองคน
และเมื่อถึงจุดที่โปรแกรมสามารถค้นหาจุดที่เหมือนกันในบริบทต่าง ๆ ได้อย่างแม่นยำ มันก็สามารถทดแทนใบหน้าเดิมในคลิปวิดีโอต้นแบบได้นั่นเอง
นอกจากนี้มีอีกอย่างที่คนใช้กันคือ การเสริมระบบ Machine Learning อีกประเภทหนึ่งที่ชื่อว่า Generative Adversarial Network (GAN) ที่เข้ามาช่วยให้ AI ให้สามารถตรวจจับ และปรับปรุงข้อบกพร่องวิดีโอ Deepfake ได้เนียนมากขึ้น
นี่จึงเป็นเหตุผลว่าทำไม ผู้ที่ถูกใช้เป็นเหยื่อของเทคโนโลยี Deepfake จึงมักเป็นคนที่มีชื่อเสียง เพราะการค้นหาวิดีโอคลิปมาใช้เป็นข้อมูลให้ AI นั้นสามารถทำได้ง่าย หรือดาวน์โหลดจากสื่อได้ทั่วไปนั่นเอง
ส่วนที่เราเห็นในปัจจุบัน ว่ามีแอปพลิเคชัน หรือ โปรแกรมต่าง ๆ มากมายสามารถสร้างคอนเทนต์ Deepfake ได้อย่างง่ายดาย ไม่ว่าจะเป็นแอป Zao, FaceApp, Face Swap หรือโปรแกรม DeepFace Lab มันก็คือเทคโนโลยีประเภทเดียวกัน แต่ส่วนมากจะใช้เพื่อความบันเทิงล้วน ๆ และไม่ได้มีคุณภาพสูงจนต้องพยายามจับสังเกตขนาดนั้น ไม่เหมือนการทำ Deepfake ด้วยโปรแกรมขั้นสูงที่ต่างฝ่ายต่างมองว่าเป็นภัยคุกคามสังคม โดยเฉพาะหากมีการนำมาใช้เพื่อ กิจกรรมทางการเมือง และ อาชญากรรม
วิธีสังเกตและการป้องกันภัยจาก Deepfake
แล้วเราจะมีวิธีสังเกตได้อย่างไรละ? นี่คือสิ่งที่ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์หลายหน่วยงาน มีการแนะนำเคล็ดลับบางประการที่จะช่วยให้คุณสังเกตและตรวจจับ Deepfake ได้
สังเกตการเคลื่อนไหวของดวงตา
Deepfake ที่เราเห็นบ่อย ๆ มักจะมีคุณภาพต่ำ โดยเฉพาะการเคลื่อนไหวที่ดวงตา ซึ่งมักเป็นปัญหาของความสมจริงของ Deepfake เพราะใบหน้าตัวปลอมนั้นมักจะมีการกระพริบตาที่ผิดปกติ
สิ่งนี้ถูกพิสูจน์มาแล้วด้วยงานวิจัยของ Siwei Lyu นักวิจัยจาก University at Albany รายหนึ่งที่ได้พยายามฝึก AI Deep learning ให้จับการเคลื่อนไหวของดวงตาที่ผิดปกติ เพราะปกติมนุษย์จะกระพริบตาทุก ๆ 2-10 วินาที แต่มนุษย์ที่สร้างด้วย AI จะกระพริบตาน้อยกว่ามาก ซึ่งวิธีการของเขาก็ได้รับการพิสูจน์ว่ามีอัตราความสำเร็จถึง 95% เลยทีเดียว ทำให้บทความของเขาได้รับการเผยแพร่ และกลายเป็นแนวทางในการตรวจจับ Deepfake ของนวัตกรรมในปัจจุบัน
เสียงพูดไม่ตรงกับปาก
การสังเกตสุดท้ายให้ดูที่ปาก ที่อาจจะขยับไม่เป็นธรรมชาติ หรือเสียงที่ใส่มาจากการปลอมแปลงด้วย Deepfake นั้นถูกจับไว้ไม่ตรงกับปากของภาพ
อย่าเชื่อในสิ่งที่เห็น
ถ้าพบเห็น คลิปวิดีโอของบุคคลที่มีชื่อเสียง หรือ บุคคลสาธารณะออกมาพูดอะไรไม่เหมาะสม หรือ พยายามโน้มน้าวอะไรด้วยข้อเสนอที่ดีเกินไป แม้ว่าเขาคนนั้นจะดูเหมือนจริงแค่ไหน ขอแนะนำให้ตรวจสอบข้อมูลจากแหล่งข่าวอื่น ๆ ก่อน อย่าเชื่อสิ่งที่คุณเห็นและไม่สามารถพิสูจน์ได้ด้วยตาเปล่า
เมื่อกระแสของ Deepfake ถูกมองว่าเป็นภัยต่อสังคม องค์กรต่าง ๆ ที่เกี่ยวข้องและเชี่ยวชาญด้านเทคโนโลยีก็ไม่ได้นิ่งนอนใจ มีการพยายามพัฒนาเครื่องมือในการตรวจจับ Deepfake ออกมาหลายเจ้า
ไม่ว่าจะเป็นทาง Adobe ที่มีเสริมเครื่องมือตรวจสอบที่มาความถูกต้องของภาพใน โปรแกรมแต่งรูป Photoshop หรือ "Facebook" ที่มีการโชว์เทคโนโลยี AI ช่วยตรวจจับ Deepfake ตามย้อนกลับไปถึงต้นฉบับของคลิปได้ รวมถึงความน่าสนของเครื่องมือ "Video Authenticator" จาก Microsoft ที่สามารถวิเคราะห์วิดีโอ Deepfake ได้แบบเรียลไทม์ และให้ข้อมูลเป็นเปอร์เซ็นต์ หรือความมั่นใจแก่ ผู้ใช้งาน
เป็นเรื่องที่ดี ที่หลายองค์กรพยายามพัฒนาเครื่องมือเหล่านี้เพื่อต่อต้าน Deepfake แต่ถึงแม้การตรวจจับของเครื่องมือจะมีความแม่นยำแค่ไหน แต่ผู้เชี่ยวชาญหลายคนก็ลงความเห็นโดยพร้อมเพียงกันว่า เทคโนโลยีอย่าง Deepfake ก็เหมือนกับไวรัส ถ้าเครื่องมือตรวจจับสามารถพัฒนาได้ เทคโนโลยี Deepfake ก็มีการพัฒนาเพื่อหลบเลี่ยงการตรวจจับได้เช่นกัน สุดท้ายนี่จึงเหมือนสนามรบแห่งใหม่ในสมรภูมิสื่อดิจิทัล ที่เราคงทำได้เพียงแต่หวังว่า เทคโนโลยีการป้องกันจะก้าวหน้าได้เร็วกว่า Deepfake