
รายงานพิเศษจาก Global Voices ชี้ สื่อลามก AI กำลังเติบโตอย่างรวดเร็วโดยไร้กฎหมายควบคุม เปิดช่องให้นำร่างกายกลุ่ม Queer มาสร้างภาพที่บิดเบือนและตอกย้ำอคติ ทั้งการทำให้คนข้ามเพศเป็นแค่วัตถุทางเพศ การนำเสนอร่างกายที่ไม่สมจริง ไปจนถึงความเสี่ยงที่โมเดล AI อาจถูกฝึกด้วยสื่อลามกเด็ก นักวิจัยชี้ทางออกต้องอาศัยทั้งกฎหมาย ความโปร่งใส และเสียงของผู้มีประสบการณ์ตรง | ภาพจาก: Global Voices
เมื่อ Pornhub เปิดเผยหมวดหมู่ที่มีผู้ชมมากที่สุดในปี 2025 เนื้อหาที่เกี่ยวข้องกับกลุ่ม LGBTQ+ ครองสองอันดับแรก โดย "Lesbian" คืออันดับหนึ่ง และ "Transgender" ขึ้นมาอยู่อันดับสอง เพิ่มขึ้นถึง 5 อันดับจากปี 2024
ความต้องการเนื้อหาผู้ใหญ่ของกลุ่ม LGBTQ+ ทั่วโลกกำลังเพิ่มขึ้น ควบคู่ไปกับการระเบิดตัวของสื่อลามกที่สร้างโดย AI ตลอดปีที่ผ่านมา การค้นหาคำว่า "AI porn generators" ใน Google เพิ่มสูงขึ้นอย่างต่อเนื่อง โดยเว็บไซต์แห่งหนึ่งมีผู้เข้าชมถึง 8.57 ล้านคนในเดือนมกราคมเพียงเดือนเดียว แต่ต่างจากสื่อลามกที่ใช้นักแสดงจริง สื่อลามก AI ยังแทบไม่มีกฎหมายควบคุม จึงเปิดช่องให้มีการนำร่างกายของกลุ่ม Queer มาใช้เอารัดเอาเปรียบได้
"บ่อยครั้งที่สื่อลามกที่สร้างโดย AI ถูกจัดอยู่ใต้ร่มของ 'สื่อที่ไม่ใช่ภาพถ่ายจริง' หรือ 'เนื้อหาผู้ใหญ่ที่ไม่สมจริงอย่างสมบูรณ์' ซึ่งมีลักษณะคล้ายกับภาพวาดการ์ตูน" โอเรลี เปอตี (Aurélie Petit) นักวิจัยหลังปริญญาเอกจากสาขาวิชาเก้าอี้วิจัยด้าน AI และเทคโนโลยีดิจิทัลภาษาฝรั่งเศสในรัฐควิเบก กล่าวกับ Uncloseted Media และ GAY TIMES "และเมื่อไม่รู้จะจัดการเนื้อหาประเภทนี้อย่างไร ก็ไม่รู้จะทำอะไรกับผลผลิต AI ผู้ใหญ่จำนวนมากเหล่านั้น"
แม้จะมีความพยายามออกกฎหมายควบคุมอุตสาหกรรมสื่อลามก AI บ้างแล้ว แต่ก็ยังมีอีกหนทางอีกยาวไกล เมื่อปีที่แล้ว รัฐสภาสหรัฐฯ ผ่านกฎหมาย TAKE IT DOWN Act ซึ่งห้ามเผยแพร่ภาพที่มีเนื้อหาทางเพศโดยไม่ได้รับความยินยอม รวมถึงภาพที่สร้างโดย AI ด้วย และรัฐเทนเนสซีได้กำหนดให้การแชร์ภาพปลอมเหล่านี้ที่เรียกว่า "deepfake" เป็นความผิดทางอาญา
แต่สื่อลามก AI ส่วนใหญ่ไม่ได้ถูกสร้างจากใบหน้าหรือร่างกายของบุคคลใดบุคคลหนึ่ง แต่สร้างจากฐานข้อมูลขนาดใหญ่ที่ใช้ฝึก AI แทน ดังนั้น ใครก็ตามที่ต้องการสร้างสื่อลามก สามารถสั่งให้ AI สร้างฉากในฝันของตนเองได้ และในไม่กี่นาที วิดีโอที่แสดงภาพคนที่ดูสมจริงก็จะถูกสร้างขึ้นมาตามต้องการ
"มีความกังวลอย่างจริงจังว่าเนื้อหาที่แย่ที่สุดบนอินเทอร์เน็ต ไม่ว่าจะเป็นเนื้อหาที่เต็มไปด้วยความเกลียดชัง หรือเนื้อหาทางเพศของเด็กที่ไม่ได้รับความยินยอม สิ่งเหล่านี้ล้วนมีอยู่บนอินเทอร์เน็ต และเราไม่สามารถยืนยันได้ว่าชุดข้อมูลที่ใช้สอน AI นั้นไม่มีภาพเหล่านั้นรวมอยู่ด้วย" มิแรนดา เว่ย (Miranda Wei) นักวิจัยหลังปริญญาเอกจากศูนย์นโยบายเทคโนโลยีสารสนเทศ มหาวิทยาลัยพรินซ์ตัน กล่าว
นอกเหนือจากกรณี deepfake กฎหมายสหรัฐฯ ยังคงทิ้งให้สื่อลามก AI อยู่ในพื้นที่สีเทาทางกฎหมาย โดยมักขึ้นอยู่กับแต่ละรัฐหรือแต่ละท้องถิ่น ในแคลิฟอร์เนีย ผู้ว่าการ เกวิน นิวซัม (Gavin Newsom) ได้ลงนามในกฎหมายที่เข้มงวดกับ deepfake และกำหนดให้เนื้อหาที่สร้างโดย AI ต้องมีลายน้ำกำกับ แต่ยังไม่มีนโยบายที่เป็นมาตรฐานเดียวกันทั่วประเทศว่าจะออกกฎหมายควบคุมสื่อลามก AI อย่างไร
"เมื่อเราพูดถึงคนจริง หรือภาพที่ดูเหมือนคนจริง เราเข้าใจได้ว่ามันก่อให้เกิดอันตรายอะไร" เปอตี กล่าว "แต่แพลตฟอร์มส่วนใหญ่ไม่รู้จะทำอย่างไร มันเป็นพื้นที่เทาทั้งในแง่กฎหมายและนโยบาย"
ภาพของผู้หญิงข้ามเพศ
เนื่องจากกลุ่มคนที่มีอคติต่อคนข้ามเพศคิดเป็นสัดส่วนที่มีนัยสำคัญของผู้บริโภคสื่อลามก สื่อลามกคนข้ามเพศกระแสหลักจึงมักถูกสร้างขึ้นในแบบที่ตอกย้ำอคติเหล่านั้น วิดีโอที่ใช้คำดูถูกหรือแบบแผนที่สร้างความเสียหายมียอดชมสูงบนเว็บไซต์สื่อลามก และข้อมูลของ Google แสดงให้เห็นว่าการค้นหาสื่อลามกคนข้ามเพศโดยใช้คำดูถูกเหยียดหยามยังคงสูงอยู่ บน Reddit กลุ่มย่อยที่เกี่ยวข้องกับคนข้ามเพศที่ใหญ่ที่สุดยังคงตั้งชื่อโดยใช้คำดูถูก
"อินเทอร์เน็ตยังคงสะท้อนแนวคิดที่ยึดเพศตรงข้ามเป็นบรรทัดฐาน อคติที่มีอยู่ก่อนแล้วเกี่ยวกับประเภทเนื้อหาที่มีบนอินเทอร์เน็ต ส่งผลต่อข้อมูลที่ถูกป้อนเข้าสู่โมเดล AI เหล่านั้น" เว่ย กล่าวกับ Uncloseted Media และ GAY TIMES
การค้นหา "สื่อลามก AI ของคนข้ามเพศ" อย่างรวดเร็วจะพบภาพที่สร้างโดย AI นับไม่ถ้วน ซึ่งแสดงภาพผู้หญิงข้ามเพศที่มีรูปร่างเป็นผู้หญิงอย่างสุดขีด มีองคชาตขนาดใหญ่เกินจริงจนเทียบได้กับความยาวลำตัว วิดีโออื่น ๆ แสดงภาพผู้หญิงข้ามเพศในท่าทางที่หากเกิดขึ้นจริงในชีวิตจริงจะก่อให้เกิดอันตรายทางร่างกายอย่างแน่นอน
"เมื่อพวกเขาพูดถึงคนข้ามเพศ คุณต้องเข้าใจจริง ๆ ว่าหมายถึงผู้หญิงข้ามเพศที่ยังมีองคชาต นี่คือการทำให้ผู้หญิงข้ามเพศก่อนผ่าตัดกลายเป็นเพียงวัตถุทางเพศ" เปอตี กล่าว
หนึ่งในผลการค้นหาแรก ๆ ของ Google คือเว็บไซต์ที่ให้ผู้ใช้ "สร้าง" ผู้หญิงข้ามเพศตามต้องการ ไม่ว่าจะเป็นอายุ ขนาดของส่วนต่าง ๆ ของร่างกาย รวมถึงตัวเลือก "เผ่าพันธุ์" ถึง 42 ตัวเลือก ซึ่งรวมไปถึงตัวเลือกประหลาดอย่าง "ก็อบลิน" และ "ผิวเขียว"
บนเว็บไซต์แห่งหนึ่งที่คล้ายกัน เจ้าของเขียนว่า "จินตนาการของคุณ กฎของคุณ คุณสามารถออกแบบทุกรายละเอียดของเพื่อนร่วม AI — ตั้งแต่ลักษณะทางกายภาพ ชุดแต่งกาย น้ำเสียง ไปจนถึงบุคลิกภาพ"
แบรนดอน โรบินสัน (Brandon Robinson) รองศาสตราจารย์ด้านการศึกษาเรื่องเพศและเพศสภาพที่มหาวิทยาลัยแคลิฟอร์เนีย ริเวอร์ไซด์ กล่าวว่าตัวเลือกการปรับแต่งที่ไม่มีขีดจำกัดเหล่านี้น่าเป็นห่วงมาก "มันสามารถยิ่งทำให้ผู้หญิงข้ามเพศถูกมองเป็นแค่วัตถุทางเพศ เพราะมันปฏิบัติกับพวกเธอเหมือนเป็นวัตถุที่เปลี่ยนแปลงและปรับแต่งได้ตามใจชอบ นอกจากนี้ยังลบล้างความเป็นจริงว่าผู้หญิงข้ามเพศคือมนุษย์จริง ๆ ที่มีความต้องการและความปรารถนาของตัวเอง"
นอกจากการทำให้เป็นแค่วัตถุทางเพศแล้ว ยังมีเนื้อหาที่เฉลิมฉลองความรุนแรงต่อผู้หญิงข้ามเพศอีกด้วย โรบินสัน กล่าวว่าภาพเหล่านี้ทำให้อคติที่มีอยู่ก่อนแล้วยิ่งฝังรากลึกขึ้น "ผู้ชายจำนวนมากเข้าหาการออกเดทหรือมีความสัมพันธ์กับผู้หญิงข้ามเพศโดยพกอคติเหล่านี้มาด้วย"
ภาพของผู้ชายรักร่วมเพศ
แม้กฎหมาย deepfake ในสหรัฐฯ จะให้การคุ้มครองบ้างแล้ว แต่สื่อลามก AI ที่ไม่ได้อิงจากรูปร่างหน้าตาของบุคคลใดบุคคลหนึ่งนั้นฟ้องร้องได้ยากกว่ามาก ซึ่งน่าเป็นห่วงเมื่อมองดูความต้องการสื่อลามกชายรักร่วมเพศทั่วโลก ในปี 2025 Pornhub รายงานว่าคำที่เกี่ยวข้องกับชายรักร่วมเพศที่ค้นหามากที่สุดสองคำแรกคือ "femboy" และ "twink" (คำที่ใช้เรียกชายหนุ่มรูปร่างผอมบาง หน้าตาดูอ่อนวัย) และ "Femboy Fixation" ถือเป็นหนึ่งในห้าเทรนด์ที่โดดเด่นที่สุดของปี 2025 โดยการค้นหา "cute femboy" และ "sexy femboy" เพิ่มขึ้น 79% และ 93% ตามลำดับ
สิ่งที่น่ากังวลคือ AI สามารถสร้างภาพในหมวดหมู่เหล่านี้ ซึ่งเป็นคำเรียกทางอ้อมสำหรับชายหนุ่มรูปร่างผอม วัยน้อย ให้ไปได้ถึงระดับที่เกินจริงกว่าปกติมาก ภาพที่สร้างโดย AI หลายชิ้นแสดงให้เห็นชายที่ผอมมากจนดูซูบโซ
"มันสร้างแนวคิดเกี่ยวกับร่างกายที่ไม่สมจริงอย่างมาก" โรบินสัน กล่าวกับ Uncloseted Media และ GAY TIMES "และเรารู้ดีว่ามีประวัติของโรคการกินผิดปกติและความผิดปกติทางความคิดเกี่ยวกับรูปร่างของตัวเองในชุมชนชายรักร่วมเพศ"
ภาพของเด็กในสื่อลามก AI
การแสดงภาพเด็กในสื่อลามก AI เป็นอีกพื้นที่หนึ่งที่เปิดช่องให้ผู้ที่มีเจตนาร้ายเข้ามาได้ รายงานฉบับสั้นของ UNICEF ในปี 2026 พบว่าใน 11 ประเทศ มีเด็กอย่างน้อย 1.2 ล้านคนที่รายงานว่าภาพของตนเองถูกนำไปดัดแปลงเป็น deepfake ทางเพศผ่านเครื่องมือ AI ในช่วงปีที่ผ่านมา และแม้จะมีกฎหมายควบคุม deepfake บ้างแล้ว แต่กลุ่มที่สร้างสื่อลามก AI หมวด "twink" และ "femboy" ก็สามารถสร้างวิดีโอที่แสดงร่างกายขนาดเล็กดูวัยน้อย ซึ่งอาจเบลอเส้นแบ่งระหว่างเนื้อหาผู้ใหญ่กับสื่อลามกเด็กได้
แม้บางคนอาจเชื่อได้ยากว่าสิ่งที่น่าสยองและผิดกฎหมายอย่างสื่อลามกเด็กอาจส่งผลต่อการฝึก AI แต่ เว่ย บอกว่ามันเกิดขึ้นจริง "การใช้สื่อลามกเด็ก (CSAM) นั้นผิดกฎหมายอย่างชัดเจน มันเลวร้ายมาก แต่สิ่งที่ผิดกฎหมายจำนวนมากก็ยังคงเกิดขึ้น ผู้คนใช้ AI สร้างสื่อลามกเด็กจาก AI เพราะโมเดลเหล่านี้อาจเคยถูกฝึกด้วยสื่อลามกเด็กมาก่อน"
สื่อลามกเลสเบี้ยนกับ AI
ภาพที่ไม่ตรงกับความเป็นจริงของความสัมพันธ์ระหว่างผู้หญิงก็ปรากฏในสื่อลามก AI เช่นกัน วิดีโอหนึ่งที่สร้างโดย AI แสดงภาพที่แทรกองค์ประกอบชายเข้าไปในเพศสัมพันธ์ระหว่างผู้หญิง
อีกส่วนที่น่ากังวลคือ AI มักสร้างภาพผู้หญิงที่มีรูปร่างหน้าตาเหมือนกันทุกประการ ในภาพที่สร้างโดย AI บางชิ้น ผู้หญิงสองคนมีทรงผม ใบหน้า และร่างกายที่เหมือนกันทุกอย่าง ซึ่งสื่ออาจกระตุ้นให้ผู้ชมมองข้ามความเป็นปัจเจกของผู้หญิง หรืออาจกระตุ้นให้เกิดแฟนตาซีแบบ incest ที่เลวร้ายกว่านั้น
นอกจากนี้ ภาพของผู้หญิงที่ AI สร้างขึ้นส่วนใหญ่มักเป็นผู้หญิงที่ดูเป็นผู้หญิงสูง ผอมมาก มีผิวสีขาว และมีหน้าอกและสะโพกที่ใหญ่เกินจริง ซึ่งแม้แต่คุณลักษณะเหล่านี้ก็ยังเป็นที่ต้องการในสื่อลามกทั่วไปอยู่แล้ว แต่ AI ยิ่งสามารถสร้างภาพที่มีสัดส่วนร่างกายที่เป็นไปไม่ได้ในชีวิตจริง
"สื่อลามก AI รักษามาตรฐานความงามที่ไม่สมจริงซึ่งคนส่วนใหญ่ไม่สามารถทำตามได้ และยิ่งผลักคนส่วนใหญ่ออกจากการที่จะถูกมองว่าน่าดึงดูดและสวยงาม" โรบินสัน กล่าว
ผลกระทบต่อผู้ชม
สื่อลามกที่สร้างโดย AI อาจส่งผลเสียต่อผู้ชม โดยเฉพาะคนหนุ่มสาว สื่อลามกนั้นเสพติดสูงมากอยู่แล้ว โดยงานวิจัยหนึ่งพบว่าการบริโภคสื่อลามกเพิ่มขึ้น 91% นับตั้งแต่ปี 2000 และอีกการศึกษาหนึ่งพบว่า 17–24% ของวัยรุ่นมีอาการติด AI
เว่ย มองว่านี่น่าเป็นห่วงมาก เพราะกระบวนการสร้างสื่อลามก AI ส่วนใหญ่เป็นกล่องดำที่มองไม่เห็นด้านใน "ในฐานะผู้บริโภค คุณไม่มีความสามารถที่จะตรวจสอบได้จริง ๆ ว่าเครื่องมือนี้ถูกสร้างขึ้นมาอย่างไร"
เพราะเหตุนี้ ผู้ใช้อาจบริโภคเนื้อหาที่อิงจากภาพที่เป็นการละเมิดหรือแม้กระทั่งสื่อลามกเด็กโดยไม่รู้ตัว เนื่องจากข้อมูลจำนวนมหาศาลที่บริษัทเทคโนโลยีใช้ฝึก AI ถูกรวบรวมมาจากทั่วอินเทอร์เน็ต ทำให้เป็นไปไม่ได้ที่ผู้ใช้จะตรวจสอบข้อมูลทีละชิ้นได้
"รู้สึกเสี่ยงกว่าที่จะใช้มันเมื่อคุณไม่รู้ว่าใครสร้างสื่อลามก AI นี้ จุดประสงค์ของพวกเขาคืออะไร หรือพวกเขาเก็บข้อมูลที่ใช้สร้างมันมาอย่างไร" เว่ย กล่าว
นอกจากนี้ เว่ย ยังชี้ให้เห็นว่าข้อมูลที่บริษัทเทคโนโลยีใช้ฝึก AI ไม่ใช่ข้อมูลสาธารณะเสมอไป "บริษัทเทคโนโลยียักษ์ใหญ่สามารถปกป้องแหล่งที่มาของข้อมูลได้ นั่นคือส่วนหนึ่งของธุรกิจพวกเขา ขนาดของชุดข้อมูลที่ถูกรวบรวมนั้นใหญ่มากจนไม่มีมนุษย์คนใดสามารถตรวจสอบได้ด้วยตนเองทีละชิ้นว่าทุกอย่างที่เก็บมาได้รับความยินยอม หรือว่าคนในกลุ่ม Queer ถูกนำเสนออย่างถูกต้องเหมาะสม"
จะทำอย่างไรได้บ้าง?
โมเดล AI สร้างเนื้อหายอดนิยมบางรายอ้างว่ามีมาตรการความปลอดภัยอยู่แล้ว เช่น เว็บไซต์ ChatGPT ระบุว่าโมเดลไม่สามารถถูกนำไปใช้สร้าง "เนื้อหาที่ผิดกฎหมาย" หรือ "ความรุนแรงทางเพศ" แต่ เปอตี บอกว่าคนที่มีเจตนาร้ายยังสามารถหลบเลี่ยงข้อจำกัดเหล่านี้ได้ "มี AI generator อยู่มากมาย และมีคนที่พยายามทำลายระบบการสร้างเนื้อหาเหล่านี้ตลอดเวลา คุณสามารถปรับแต่งวิธีพูดทีละนิดเพื่อทำให้ AI ทำในสิ่งที่มันไม่ต้องการทำได้"
ในกระทู้ Reddit แห่งหนึ่ง ผู้ใช้ Grok ของอีลอน มัสก์ (Elon Musk) แสดงความไม่พอใจเกี่ยวกับระบบการควบคุมที่พัฒนาใหม่ซึ่งทำให้สร้างภาพเนื้อหาผู้ใหญ่ได้ยากขึ้น และผู้ใช้รายอื่นก็ดูเหมือนจะยืนยันว่าตนสามารถหาช่องโหว่ได้แล้ว
ศักยภาพในการใช้ AI ในทางที่ผิดปรากฏให้เห็นชัดเจนเมื่อมีการเปิดเผยว่า ตั้งแต่เดือนธันวาคม 2025 Grok ได้สร้างและแชร์ภาพผู้หญิงที่มีเนื้อหาทางเพศไปมากกว่า 1.8 ล้านภาพในช่วงเวลาเพียง 9 วัน "อย่างที่เราเห็นจาก Grok และเรื่องอื้อฉาวมากมายในช่วงไม่กี่ปีที่ผ่านมา ความสามารถในการหยุด AI ไม่ให้สร้างภาพทางเพศของใครบางคนนั้นยังเป็นปัญหาที่ยังแก้ไม่ได้" เว่ย กล่าว
เว่ย ยอมรับว่าไม่มีวิธีแก้ปัญหาที่สมบูรณ์แบบ แต่มีมาตรการที่ช่วยป้องกันได้บ้าง หนึ่งในนั้นคือ "red teaming" ซึ่งเป็นวิธีการทดสอบโมเดล AI โดยพยายามสั่งให้สร้างเนื้อหาที่ผิดกฎหมาย เพื่อหาช่องโหว่ด้านการควบคุม "มันคือการทดสอบในเชิงรุกเพื่อโจมตีโมเดลและดูว่ามันทำสิ่งที่เป็นอันตรายซึ่งคุณพยายามป้องกันได้หรือไม่" เว่ย อธิบาย
บริษัทอย่าง Google ได้จ้างแฮกเกอร์มาทำ red teaming เพื่อค้นหาจุดอ่อนด้านความปลอดภัย เว่ย มองว่าบริษัท AI รายอื่นควรทำแบบเดียวกัน
อีกวิธีหนึ่งคือการใช้ "model cards" ซึ่งเป็นไฟล์ขนาดเล็กที่แนบมากับโมเดล AI โดยระบุข้อมูลเกี่ยวกับแหล่งที่มาของข้อมูลที่ใช้ฝึก รวมถึงวัตถุประสงค์และข้อจำกัดของ AI ทั้งสองวิธีมุ่งสู่ความโปร่งใส ซึ่ง เว่ย มองว่าจำเป็นต่อการใช้ AI อย่างปลอดภัยมากขึ้น "ควรมีวิธีทำให้เทคโนโลยีปลอดภัยสำหรับคนที่ต้องการใช้มัน ความโปร่งใสจำเป็นต่อการแก้ปัญหาด้านความปลอดภัย แต่นั่นก็ยังเป็นกระบวนการที่ต้องดำเนินต่อไป"
ในระหว่างนี้ เว่ย กล่าวว่า "บริษัทเทคโนโลยีและผู้ออกกฎหมายจำเป็นต้องก้าวขึ้นมาและออกกฎระเบียบที่เข้มแข็งกว่านี้เกี่ยวกับสื่อลามก AI โดยการออกกฎหมายที่มีประสิทธิภาพนั้นต้องการเสียงจากคนที่มีประสบการณ์ตรงในวงการสื่อลามก ไม่ว่าจะเป็นนักแสดงผู้ใหญ่หรือผู้ที่จะถูกนำเสนอในเนื้อหาเหล่านี้"
*รายชิ้นนี้เผยแพร่ครั้งแรกเมื่อวันที่ 14 มีนาคม 2026 โดย Uncloseted Media และ GAY TIMES และนำมาเผยแพร่ซ้ำในฐานะพันธมิตรด้านเนื้อหากับ Global Voices
*รายงานเพิ่มเติมโดย Spencer Macnaughton และ Hope Pisoni
www.facebook.com/tcijthai
ป้ายคำ

