บริษัทแอนโทรปิก ผู้พัฒนาปัญญาประดิษฐ์ชั้นนำจากสหรัฐอเมริกา ได้เปิดเผยข้อกล่าวหาสำคัญว่าบริษัท AI สัญชาติจีนสามแห่งได้สร้างบัญชีปลอมกว่า 24,000 บัญชี เพื่อใช้ในการเข้าถึงและสกัดข้อมูลจากโมเดล AI ชื่อดังอย่าง Claude การกระทำที่เรียกว่า “การกลั่นกรอง” นี้ ทำให้เกิดการแลกเปลี่ยนข้อมูลกับระบบของแอนโทรปิกไปมากกว่า 16 ล้านครั้ง โดยมีเป้าหมายเพื่อเลียนแบบความสามารถอันโดดเด่นของ Claude ในด้านการให้เหตุผลแบบอัตโนมัติ การใช้งานเครื่องมือ และการเขียนโค้ด
ข้อกล่าวหาดังกล่าวพุ่งเป้าไปที่บริษัท DeepSeek, Moonshot AI และ MiniMax ซึ่งเป็นผู้เล่นสำคัญในอุตสาหกรรม AI ของจีน การกลั่นกรองข้อมูลนี้เป็นการใช้เอาต์พุตของโมเดล AI คู่แข่งเพื่อฝึกฝนและปรับปรุงโมเดลของตนเอง ซึ่งแม้จะเป็นวิธีการฝึกฝนที่พบได้ทั่วไปในการสร้างเวอร์ชันที่เล็กลงและประหยัดค่าใช้จ่าย แต่การนำไปใช้กับโมเดลของคู่แข่งโดยไม่ได้รับอนุญาตนั้น เปรียบเสมือนการลอกการบ้านของผู้อื่นเพื่อเร่งการพัฒนาของตนเอง ก่อนหน้านี้ OpenAI ก็เคยส่งบันทึกข้อกล่าวหาในลักษณะเดียวกันว่า DeepSeek ใช้กลยุทธ์ดังกล่าวเพื่อเลียนแบบผลิตภัณฑ์ของตน
การสกัดข้อมูลในวงกว้างนี้ได้กระตุ้นให้เกิดการถกเถียงอย่างเข้มข้นเกี่ยวกับความจำเป็นในการบังคับใช้มาตรการควบคุมการส่งออกชิป AI ขั้นสูงอย่างเข้มงวด ซึ่งเป็นนโยบายที่มุ่งเป้าไปที่การจำกัดการพัฒนา AI ของจีน แอนโทรปิกชี้ว่าการโจมตีในลักษณะ “การกลั่นกรอง” นี้ต้องอาศัยการเข้าถึงชิปประมวลผลขั้นสูงอย่างมาก ดังนั้น การจำกัดการเข้าถึงชิปจึงไม่เพียงแต่จำกัดการฝึกฝนโมเดลโดยตรงเท่านั้น แต่ยังรวมถึงขนาดของการกลั่นกรองข้อมูลที่ผิดกฎหมายด้วย
ผู้เชี่ยวชาญด้านความมั่นคงทางไซเบอร์ได้แสดงความกังวลอย่างยิ่งต่อสถานการณ์นี้ นายดมิทรี อัลเปอโรวิช ประธานของ Silverado Policy Accelerator และผู้ร่วมก่อตั้ง CrowdStrike กล่าวกับสื่อว่าไม่แปลกใจกับการโจมตีดังกล่าว และระบุว่านี่เป็นข้อพิสูจน์ที่ชัดเจนว่าความก้าวหน้าอย่างรวดเร็วของโมเดล AI ของจีนส่วนหนึ่งมาจากการลักลอบขโมยข้อมูลผ่านการกลั่นกรองจากโมเดลชั้นนำของสหรัฐฯ มุมมองนี้ยิ่งตอกย้ำเหตุผลในการปฏิเสธการจำหน่ายชิป AI ให้กับบริษัทเหล่านี้เพื่อป้องกันไม่ให้ได้เปรียบเพิ่มขึ้นอีก
นอกจากความเสี่ยงด้านการแข่งขันทางธุรกิจแล้ว แอนโทรปิกยังเน้นย้ำถึงภัยคุกคามด้านความมั่นคงของชาติที่อาจเกิดขึ้นจากโมเดล AI ที่ถูกสร้างขึ้นจากการกลั่นกรองอย่างผิดกฎหมาย โมเดลเหล่านี้มีแนวโน้มที่จะขาดการป้องกันและมาตรการความปลอดภัยที่บริษัทสหรัฐฯ สร้างขึ้น เพื่อป้องกันการนำ AI ไปใช้ในทางที่ผิด เช่น การพัฒนาอาวุธชีวภาพ หรือการโจมตีทางไซเบอร์ที่เป็นอันตราย หากความสามารถที่อันตรายเหล่านี้แพร่กระจายออกไปโดยไม่มีการควบคุม อาจเป็นช่องทางให้รัฐบาลเผด็จการนำ AI ไปใช้ในการปฏิบัติการทางไซเบอร์เชิงรุก การเผยแพร่ข้อมูลบิดเบือน หรือการเฝ้าระวังมวลชน ซึ่งความเสี่ยงนี้จะเพิ่มขึ้นทวีคูณหากโมเดลเหล่านั้นถูกเปิดเผยเป็นโอเพนซอร์ส
การโจมตีของแต่ละบริษัทมีลักษณะแตกต่างกันออกไป โดย DeepSeek ถูกระบุว่ามีการแลกเปลี่ยนข้อมูลกว่า 150,000 ครั้ง ซึ่งมุ่งเน้นไปที่การปรับปรุงตรรกะพื้นฐานและการจัดแนวทาง โดยเฉพาะอย่างยิ่งในการสร้างทางเลือกที่ปลอดภัยจากการเซ็นเซอร์สำหรับคำถามที่ละเอียดอ่อนเชิงนโยบาย ขณะที่ Moonshot AI มีการแลกเปลี่ยนกว่า 3.4 ล้านครั้ง โดยมีเป้าหมายที่การให้เหตุผลแบบอัตโนมัติ การใช้งานเครื่องมือ การเขียนโค้ด การวิเคราะห์ข้อมูล และการพัฒนาตัวแทนที่ใช้งานคอมพิวเตอร์ ส่วน MiniMax มีการแลกเปลี่ยนถึง 13 ล้านครั้ง เน้นไปที่การเขียนโค้ดแบบอัตโนมัติ การใช้งานเครื่องมือ และการประสานงาน
แอนโทรปิกยืนยันว่าจะยังคงลงทุนในการป้องกันการโจมตีแบบกลั่นกรองให้ทำได้ยากขึ้นและตรวจจับได้ง่ายขึ้น แต่ก็เรียกร้องให้มีการประสานงานจากอุตสาหกรรม AI ผู้ให้บริการคลาวด์ และผู้กำหนดนโยบาย เพื่อรับมือกับภัยคุกคามนี้อย่างครอบคลุม ยังไม่มีการแสดงความคิดเห็นจากบริษัทที่ถูกกล่าวหาในทันที
ที่มา techcrunch