Sam Altman ซีอีโอของ OpenAI ได้ออกมาแถลงการณ์ยอมรับถึงความผิดพลาดในการเร่งรีบทำข้อตกลงกับกระทรวงกลาโหมสหรัฐฯ ซึ่งเกิดขึ้นเมื่อไม่นานมานี้ โดยเขาได้ประกาศถึงแผนการปรับปรุงเงื่อนไขในสัญญาดังกล่าวให้มีความชัดเจนมากยิ่งขึ้น โดยเฉพาะประเด็นที่เกี่ยวข้องกับหลักการพื้นฐานของบริษัทในเรื่องการใช้เทคโนโลยีปัญญาประดิษฐ์

การปรับปรุงสัญญาครั้งนี้มีเป้าหมายหลักเพื่อเพิ่มข้อความที่ระบุอย่างชัดเจนว่า ระบบปัญญาประดิษฐ์ของ OpenAI จะไม่ถูกนำไปใช้เพื่อวัตถุประสงค์ในการสอดแนมพลเมืองสหรัฐฯ หรือบุคคลที่มีสัญชาติอเมริกันโดยเจตนา นอกจากนี้ ข้อตกลงใหม่ยังระบุถึงความเข้าใจของกระทรวงกลาโหมที่จำกัดการติดตาม การสอดแนม หรือการเฝ้าระวังบุคคลดังกล่าว รวมถึงการห้ามจัดหาหรือใช้ข้อมูลส่วนบุคคลที่ได้มาจากการซื้อขายในเชิงพาณิชย์

การเปลี่ยนแปลงดังกล่าวเกิดขึ้นหลังจากที่ OpenAI ได้ประกาศบรรลุข้อตกลงใหม่กับกระทรวงกลาโหมสหรัฐฯ เมื่อวันศุกร์ที่ผ่านมา ซึ่งเป็นช่วงเวลาที่มีความเคลื่อนไหวสำคัญทางการเมืองหลายอย่างเกิดขึ้นในสหรัฐฯ โดยเฉพาะอย่างยิ่งหลังจากที่ประธานาธิบดีโดนัลด์ ทรัมป์ ได้ออกคำสั่งให้หน่วยงานของรัฐยุติการใช้ผลิตภัณฑ์ AI จากบริษัทคู่แข่งอย่าง Anthropic

Altman ยังกล่าวเสริมว่า กระทรวงกลาโหมได้ยืนยันอย่างเป็นทางการว่า เครื่องมือของ OpenAI จะไม่ถูกนำไปใช้โดยหน่วยงานข่าวกรอง เช่น สำนักงานความมั่นคงแห่งชาติ (NSA) เขายอมรับว่าเทคโนโลยี AI บางประเภทยังไม่พร้อมสำหรับการนำไปใช้งาน และยังมีหลายแง่มุมที่ยังไม่เข้าใจถึงผลกระทบด้านความปลอดภัยที่อาจเกิดขึ้น ซึ่ง OpenAI จะทำงานร่วมกับกระทรวงกลาโหมอย่างใกล้ชิดเพื่อพัฒนากลไกการรักษาความปลอดภัยทางเทคนิค

ซีอีโอ OpenAI ยังยอมรับตรงๆ ว่าเขาได้ทำผิดพลาดและไม่ควรเร่งรีบสรุปข้อตกลงดังกล่าวให้เสร็จสิ้นในวันศุกร์ เขาอธิบายว่าความพยายามในช่วงแรกคือการลดความตึงเครียดและหลีกเลี่ยงสถานการณ์ที่เลวร้ายยิ่งกว่า แต่ผลลัพธ์ที่ออกมากลับดูเหมือนเป็นการฉวยโอกาสและขาดความรอบคอบ

การยอมรับนี้เกิดขึ้นท่ามกลางกระแสวิพากษ์วิจารณ์ที่ถาโถมเข้ามา หลังจากที่มีความขัดแย้งสาธารณะระหว่าง Anthropic กับหน่วยงานรัฐบาลสหรัฐฯ เกี่ยวกับมาตรการรักษาความปลอดภัยของระบบ AI Claude ของ Anthropic ซึ่งท้ายที่สุดก็ยังไม่สามารถบรรลุข้อตกลงร่วมกันได้

ก่อนหน้านี้ OpenAI เคยทำข้อตกลงเบื้องต้นกับกระทรวงกลาโหมเมื่อปีที่แล้ว และ Anthropic ถือเป็นบริษัท AI แห่งแรกที่ได้นำโมเดลของตนไปใช้ในเครือข่ายข้อมูลลับของกระทรวงกลาโหม อย่างไรก็ตาม Anthropic ได้พยายามขอการรับประกันว่าเครื่องมือของตนจะไม่ถูกนำไปใช้ในทางที่ผิด เช่น การสอดแนมภายในประเทศ หรือการพัฒนาอาวุธอัตโนมัติโดยปราศจากการควบคุมของมนุษย์

ข้อพิพาทดังกล่าวปะทุขึ้นหลังจากมีรายงานว่า AI Claude ของ Anthropic ถูกกองทัพสหรัฐฯ นำไปใช้ในการปฏิบัติการจับกุมประธานาธิบดีนิโคลัส มาดูโร ของเวเนซุเอลา แม้ว่าในขณะนั้นบริษัทจะไม่ได้คัดค้านการใช้งานดังกล่าวอย่างเป็นทางการ

ข้อตกลงระหว่าง OpenAI และกระทรวงกลาโหมสหรัฐฯ เกิดขึ้นทันทีหลังจากที่การเจรจาระหว่าง Anthropic และกระทรวงกลาโหมต้องยุติลง โดย Altman ได้แจ้งต่อพนักงานว่า OpenAI มีข้อจำกัด (red lines) ที่เหมือนกับ Anthropic และในวันศุกร์ OpenAI ก็ได้โพสต์ข้อความยืนยันว่ากระทรวงกลาโหมยอมรับข้อจำกัดที่บริษัทตั้งไว้

ยังคงเป็นที่น่าสงสัยว่าเหตุใดกระทรวงกลาโหมจึงยอมรับข้อเสนอของ OpenAI ในขณะที่ปฏิเสธ Anthropic ซึ่งเจ้าหน้าที่รัฐบาลได้วิพากษ์วิจารณ์ Anthropic มาหลายเดือนว่ามีความกังวลมากเกินไปเกี่ยวกับความปลอดภัยของ AI

ช่วงเวลาของการทำข้อตกลงระหว่าง OpenAI และกระทรวงกลาโหมได้จุดชนวนให้เกิดกระแสต่อต้านในโลกออนไลน์ โดยมีรายงานว่าผู้ใช้งานจำนวนมากได้เปลี่ยนไปใช้ Claude แทน ChatGPT ในแอปสโตร์ต่างๆ

Altman ได้กล่าวในโพสต์ของเขาเพิ่มเติมว่า เขาได้ย้ำเตือนในการหารือในช่วงสุดสัปดาห์ว่า Anthropic ไม่ควรถูกจัดอยู่ในกลุ่มความเสี่ยงด้านห่วงโซ่อุปทาน (supply chain risk) และหวังว่ากระทรวงกลาโหมจะเสนอเงื่อนไขเดียวกันกับที่ OpenAI ได้ตกลงไป

Anthropic ก่อตั้งขึ้นในปี 2564 โดยกลุ่มอดีตพนักงานและนักวิจัยของ OpenAI ที่ลาออกไปเนื่องจากความเห็นไม่ลงรอยกันเกี่ยวกับทิศทางของบริษัท โดย Anthropic ได้วางตำแหน่งตัวเองเป็นทางเลือกที่ให้ความสำคัญกับ 'ความปลอดภัยเป็นอันดับแรก'

ที่มา cnbc