11
Nov
2022

ของปลอมทำความดีได้จริงแค่ไหน

สารคดีใหม่เน้นว่าเทคโนโลยีที่เป็นข้อขัดแย้งสามารถปกป้องผู้คนได้อย่างไร

Caroline McGinnes อาจเป็นหนึ่งในไม่กี่คนในโลกที่รู้ว่าการยืมหน้าใครสักคนเป็นอย่างไร ในสารคดี HBO เรื่องใหม่ ดวงตา จมูก และปากของเธอช่วยปกปิดตัวตนของชาว LGBTQ ในเชชเนีย สาธารณรัฐมุสลิมที่โดดเด่นในรัสเซีย โดยพื้นฐานแล้ว McGinnes อาสาที่จะกลายเป็น Deepfake อย่างที่ไม่ค่อยมีใครเห็นมาก่อน

ในเชชเนีย คน LGBTQ ต้องเผชิญกับการกดขี่ข่มเหง ที่ สำคัญ รวมถึงการคุมขัง ที่ผิดกฎหมาย การทรมานและการละเมิดรูปแบบอื่นๆ เนื่องจากผู้รอดชีวิตแทบจะไม่สามารถเปิดเผยตัวตนของตนเองได้อย่างปลอดภัย ทีมที่อยู่เบื้องหลังภาพยนตร์เรื่องWelcome to Chechnyaจึงหันมาใช้เทคโนโลยีแบบเดียวกับที่มักพบในวิดีโอ Deepfake พวกเขากำลังใช้ปัญญาประดิษฐ์เพื่อซ้อนใบหน้าของอาสาสมัครไว้บนหน้าของผู้รอดชีวิต การประยุกต์ใช้เทคโนโลยีที่เหมือน Deepfake นี้สามารถแทนที่วิธีดั้งเดิมในการทำให้แหล่งที่มาไม่เปิดเผยตัว เช่น ให้พวกเขานั่งอยู่ในเงามืดหรือทำให้ใบหน้าของพวกเขาเบลอ เทคโนโลยียังช่วยให้แสดงอารมณ์ของผู้รอดชีวิตได้ดีขึ้น

“Deepfake” กลายเป็นศัพท์ย่อสำหรับเทคนิคทางเทคโนโลยีที่หลากหลาย แต่โดยทั่วไปแล้วเป็นที่เข้าใจกันว่าปัญญาประดิษฐ์ที่ใช้ในการดัดแปลงวิดีโอและเสียง ทำให้ดูเหมือนมีคนพูดหรือทำสิ่งที่พวกเขาไม่ได้ทำจริงๆ คำนี้มาจากชื่อของผู้ใช้ Reddit ที่ใช้แมชชีนเลิร์นนิงเพื่อเปลี่ยนใบหน้าของคนดังเป็นวิดีโอโป๊โดยไม่ได้รับความยินยอมจากพวกเขา แต่อุตสาหกรรมในวงกว้างได้เริ่มส่งเสริมรูปแบบที่คล้ายกันของการจัดการสื่อโดยใช้ AI ซึ่งบางครั้งเรียกว่าสื่อสังเคราะห์ ซึ่งไม่จำเป็นต้องเป็นเรื่องเลวร้ายเสมอไป

เช่นเดียวกับวิดีโอ Deepfake ของ Barack Obama (หรือMark ZuckerbergหรือKim Kardashian ) ใบหน้าอาจดูไม่ถูกต้องนักเนื่องจากวิดีโอ Deepfake มักจะอาศัยอยู่ในหุบเขาลึกลับ ยินดีต้อนรับสู่เชชเนียเตือนผู้ชมว่าเทคโนโลยีนี้เป็นจุดเด่น และบางครั้ง “ใบหน้าคู่” อาจดูพร่ามัวราวกับสีน้ำ สำหรับผู้ที่ใบหน้าปรากฏในภาพยนตร์ ประสบการณ์สามารถ “สวยเกินจริง” ตาม McGinnes

“พวกมันทำแผนที่ระยะห่างทั้งหมดบนใบหน้าของคุณ” เธอบอกกับ Recode “และพวกมันเข้ากับทุกอย่าง ดวงตา กรามของคุณ ทุกอย่าง”

ยินดีต้อนรับสู่เชชเนียซึ่งเปิดตัวในวันที่ 30 มิถุนายนทาง HBO และ HBO Max เป็นตัวอย่างที่ดีที่หาได้ยากของ Deepfakes ด้วยความช่วยเหลือของเทคโนโลยี Deepfake ภาพยนตร์เรื่องนี้สามารถฉายแสงเกี่ยวกับการละเมิดสิทธิมนุษยชนในขณะที่ลดความเสี่ยงต่อผู้ที่ตกเป็นเหยื่อที่เกี่ยวข้องกับการผลิต

ตอนนี้ Deepfake Technology ขึ้นชื่อเรื่องการทำร้าย มากกว่าการช่วยเหลือผู้คน ผู้หญิงมีแนวโน้มที่จะได้รับบาดเจ็บจากเทคโนโลยี Deepfake มากกว่า รายงานล่าสุดจากกลุ่มวิจัย Deeptrace พบว่า deepfakes เกือบทั้งหมดที่พบทางออนไลน์อยู่ในวิดีโอโป๊ ที่ไม่ ได้ รับความยินยอม ความกลัวที่สำคัญอีกประการหนึ่งคือ Deepfakes สามารถใช้เพื่อปลอมตัวเป็นบุคคลทางการเมืองและเพื่อผลักดันการรณรงค์บิดเบือนข้อมูลซึ่งทำให้ปัญหาข่าวปลอมบนอินเทอร์เน็ตรุนแรงขึ้น

ผู้เชี่ยวชาญกล่าวกับ Recode ว่าคำมั่นสัญญาของเทคโนโลยีที่เหมือน Deepfake ในการปิดบังผู้คนอาจได้รับความนิยมมากขึ้น ทำให้การถกเถียงเรื่องจริยธรรมและระเบียบข้อบังคับของการประยุกต์ใช้ปัญญาประดิษฐ์ที่ขัดแย้งกันนี้มีความซับซ้อนมากขึ้น

Deepfakes สามารถปกปิดตัวตนได้

คนที่อยู่เบื้องหลัง เทคโนโลยีของ Welcome to Chechnyaคือ Ryan Laney ผู้เชี่ยวชาญด้านวิชวลเอ็ฟเฟ็กต์ ผู้ซึ่งกล่าวว่าเทคโนโลยีที่ใช้ในภาพยนตร์เรื่องนี้ทำให้เคลื่อนไหวใบหน้าได้เหมือนหุ่นกระบอก พูดง่ายๆ ก็คือ การเคลื่อนไหวของใบหน้าของผู้ที่อยู่ในคู่มือสารคดีว่าใบหน้าของการเคลื่อนไหวแบบ “คู่” นั้นเป็นอย่างไร ด้วยความช่วยเหลือจากเทคโนโลยีการเรียนรู้เชิงลึก

“คิ้วและรูปร่างของดวงตากลายเป็นเหมือนการแปรงพู่กัน” Laney อธิบาย “ดังนั้นเราจึงนำเนื้อหาของเรื่องในภาพยนตร์และปรับใช้สไตล์ของนักเคลื่อนไหว” (ทีมงานของภาพยนตร์เรื่องนี้หมายถึงคนที่สมัครใจเป็น “นักเคลื่อนไหว”)

ในท้ายที่สุด เขากล่าวว่าแนวคิดคือการสร้าง “เทียมดิจิทัลที่มีการเคลื่อนไหว อารมณ์ และแก่นแท้ของสิ่งที่ตัวแบบกำลังทำอยู่ 100 เปอร์เซ็นต์” โดยพื้นฐานแล้วเทคนิคนี้จะเปลี่ยนรูปร่างตาของบุคคลอย่างละเอียด แต่ไม่ใช่ความจริงที่ว่าพวกเขากำลังกระพริบตา

ความท้าทายอีกประการหนึ่งคือการหลีกเลี่ยงหุบเขาลึกลับ ซึ่งเป็นคำที่มักใช้เพื่อพูดคุยเกี่ยวกับลักษณะของหุ่นยนต์ที่เหมือนจริง เพื่อตอบคำถามนั้น ภาพยนตร์เรื่องนี้จึงนำ Thalia Wheatley นักจิตวิทยาสังคมและนักประสาทวิทยาที่ Dartmouth และนักศึกษาระดับบัณฑิตศึกษา Chris Welker มาทดสอบวิธีการต่างๆ ในการปิดบังใบหน้าและดูว่าผู้ชมนำร่องตอบสนองอย่างไร ตัวอย่างเช่น พวกเขาลองใช้การดัดแปลงใบหน้าของผู้รอดชีวิตที่เหมือนการ์ตูน ซึ่งวีทลีย์เปรียบกับอนิเมชั่นจากภาพยนตร์เรื่องSpiderman: Into the Spiderverse นัก วิจัยกล่าว

อีกเวอร์ชันหนึ่งเกี่ยวข้องกับการปิดบังใบหน้าแต่ยังคงรักษาดวงตาของคนดั้งเดิมไว้ ซึ่งนักวิจัยคิดว่าสามารถช่วยให้ผู้คนเชื่อมโยงกับหัวข้อนี้ได้ มันไม่ได้ผลจริงๆเช่นกัน

“เราคิดว่าคำตอบคือคุณเอาสายตาของใครคนหนึ่งมาจ้องหน้าอีกคนหนึ่ง และสมองก็ไม่สามารถแก้ไขความไม่ลงรอยกันได้ และมันก็แค่รู้สึกไม่มั่นคงและมันทำให้ผู้คนออกจากประสบการณ์” วีทลีย์กล่าว “แต่เราไม่รู้แน่ชัด”

แนวคิดในการใช้ deepfakes เพื่อทำให้ผู้คนไม่เปิดเผยตัวตนกำลังได้รับความนิยมมากขึ้น

Laney กล่าวว่าตอนนี้เขากำลังทำงานเพื่อทำให้เทคโนโลยี Deepfake ใหม่นี้เป็นประชาธิปไตยให้ดียิ่งขึ้น ผ่านบริษัทใหม่Teus Mediaเขาต้องการเปลี่ยนปัญญาประดิษฐ์ของเขาให้เป็น “ม่านดิจิทัล” ด้านนักข่าวสำหรับการปิดบังพยานที่ตกอยู่ในอันตราย และเขาบอกว่าเขาได้รับความสนใจแล้ว แต่ Laney ไม่ใช่คนเดียวที่ผลักดันแนวทางนั้น

สตาร์ทอัพ บางบริษัท เช่นD-IDและAlethea AIต้องการให้ผู้คนใช้อวาตาร์ที่เหมือน Deepfake เพื่อปกปิดตัวเองทางดิจิทัล นักวิจัยจากมหาวิทยาลัยวิทยาศาสตร์และเทคโนโลยีแห่งนอร์เวย์และมหาวิทยาลัยออลบานีได้ทำงานเกี่ยวกับเทคโนโลยีที่คล้ายคลึงกัน

Catalin Grigoras ผู้อำนวยการศูนย์นิติเวชสื่อแห่งชาติของมหาวิทยาลัยโคโลราโดเดนเวอร์เน้นว่าคำถามด้านจริยธรรมเกี่ยวกับสื่อสังเคราะห์นั้นถูกหยิบยกขึ้นมาเมื่อพวกเขาดูเหมือนจะใช้แง่มุมของความเป็นจริง ไม่มีใครมีปัญหากับใบหน้าปลอมที่สร้างขึ้นในภาพยนตร์ฮอลลีวูด แต่ปัญหาก็ปรากฏขึ้น เช่น เมื่อพวกเขาใช้ในการสร้างข่าวเท็จ สำหรับWelcome to Chechnyaนั้น การประยุกต์ใช้เทคโนโลยี deepfake นั้นมีเหตุผล

“มันเป็นแค่หนังเรื่องใหม่ที่มีวิชวลเอ็ฟเฟ็กต์แบบนี้” กริกอรัสกล่าว “พวกมันค่อนข้างดี แต่ก็ยังสามารถตรวจจับพวกมันได้”

Sam Gregory ผู้อำนวยการโครงการ Witness ซึ่งเป็นองค์กรไม่แสวงหากำไรด้านสิทธิมนุษยชนที่เน้นวิดีโอและเทคโนโลยีกล่าวว่านักเคลื่อนไหวที่เขาพูดถึงพบว่าเป็นหนึ่งในแอปพลิเคชั่นที่น่าสนใจเพียงไม่กี่ตัวของเทคโนโลยี Gregory ชี้ไปที่ผู้หญิงที่ใช้หน้ากากเสมือนบน Snapchatเพื่อแบ่งปันประสบการณ์การล่วงละเมิดทางเพศผ่านวิดีโอโดยไม่เปิดเผยตัวตน

“ในช่วงสองสามปีที่ผ่านมา ดูเหมือนว่าการใช้ Deepfakes ในเชิงบวกมากที่สุดอย่างหนึ่งคือการรักษาลักษณะของมนุษย์และความสามารถในการถ่ายทอดอารมณ์และรักษาความเป็นมนุษย์ที่สำคัญของผู้คนที่ต้องเผชิญกับการทารุณกรรมที่น่ากลัว” Gregory กล่าว

ถึงกระนั้น เกรกอรีเตือนว่า Deepfakes ที่ใช้สำหรับการไม่เปิดเผยตัวตนนั้นไม่ได้ปราศจากคำถามด้านจริยธรรม ตัวอย่างเช่น เขาสงสัยว่าใบหน้าสองเท่าควรตรงกับอัตลักษณ์และลักษณะเฉพาะ เช่น เชื้อชาติ เพศ และอายุ ของบุคคลซึ่งปิดบังตัวตนไว้มากน้อยเพียงใด Gregory เสริมว่าแม้ว่าเทคโนโลยีนี้อาจช่วยนักเคลื่อนไหว แต่ก็สามารถใช้เพื่อบิดเบือนความจริงและกำหนดเป้าหมายพวกเขาได้

คาดหวังข้อโต้แย้งเพิ่มเติมสำหรับสื่อสังเคราะห์ที่ถูกกฎหมาย

เมื่อถูกถามเกี่ยวกับคำถามเกี่ยวกับ Deepfakes ทาง Laney ของ Welcome to Chechnyaกล่าวว่าเทคโนโลยีของเขาไม่นับในทางเทคนิคเพราะ สำหรับเขา ปัญญาประดิษฐ์ที่ใช้ในภาพยนตร์เรื่องนี้กำหนดให้ทั้งข้อตกลงของผู้ถ่ายทำที่จะไม่เปิดเผยชื่อและความยินยอมของนักเคลื่อนไหวที่อาสาใบหน้าของพวกเขา Laney ยังเน้นว่าไม่มีใครพยายามหลอกลวงผู้ชม พวกเขารู้ว่าเทคโนโลยีอยู่ในสถานที่และกำลังถูกใช้เพื่อสื่อสารถึงขอบเขตที่คนเหล่านี้ตกอยู่ในอันตราย

นั่นสะท้อนถึงสิ่งที่บริษัทชื่อ Synthesia ได้กล่าวไว้ สตาร์ทอัพซึ่งขายเทคโนโลยีสื่อสังเคราะห์ที่คล้ายคลึงกัน ให้คำมั่นที่จะไม่นำเสนอเทคโนโลยีที่เหมือน Deepfake สำหรับการใช้งานสาธารณะ และได้ให้คำมั่นว่าจะ “จะไม่บังคับใช้กฎหมายกับใครก็ตามโดยไม่ได้รับความยินยอมอย่างชัดแจ้งจากพวกเขา” รวมถึง “นักการเมืองหรือคนดังเพื่อจุดประสงค์ในการเสียดสี ”

ในปัจจุบัน ยังไม่มีกฎหมายของรัฐบาลกลางที่ควบคุมการผลิต Deepfakes อย่างชัดแจ้งในสหรัฐอเมริกา แม้ว่าบางรัฐได้แสดงความสนใจในการควบคุมเทคโนโลยีนี้และบางรัฐกล่าวว่ากฎหมายที่มีอยู่อาจมีผลบังคับใช้แล้ว ในขณะเดียวกัน บริษัทโซเชียลมีเดียอย่างFacebookและTwitterก็พยายามสร้างกฎเกณฑ์สำหรับการกลั่นกรองการใช้เทคโนโลยีบนแพลตฟอร์มของพวกเขา

แต่ Deepfakes เป็นส่วนหนึ่งของอุตสาหกรรมที่กำลังพัฒนา เมื่อเทคโนโลยีมีความโดดเด่นมากขึ้น เราควรคาดหวังว่าผู้คนจำนวนมากขึ้นจะโต้แย้งกรณีการใช้งานที่ถูกต้อง หรืออย่างน้อยที่สุด แอปพลิเคชันที่ไม่น่ากลัวเท่ากับ Deepfakes ที่เราคุ้นเคย นั่นจะทำให้วิธีการที่เราเลือกที่จะควบคุมมันซับซ้อนอย่างหลีกเลี่ยงไม่ได้

Open Sourcedเกิดขึ้นได้บน Omidyar Network เนื้อหาโอเพนซอร์สทั้งหมดเป็นอิสระด้านบรรณาธิการและผลิตโดยนักข่าวของเรา

หน้าแรก

Share

You may also like...