OpenAI เผชิญกับข้อกล่าวหาว่าพนักงานปิดปากเรื่องความเสี่ยงด้าน AI

พนักงานกล่าวหาข้อจำกัดในการแจ้งเบาะแสในการร้องเรียนต่อ ก.ล.ต

OpenAI ซึ่งเป็นองค์กรวิจัยปัญญาประดิษฐ์ชั้นนำ อยู่ภายใต้การตรวจสอบอย่างละเอียดตามข้อกล่าวหาว่าได้ป้องกันไม่ให้พนักงานแจ้งข้อกังวลเกี่ยวกับความเสี่ยงที่อาจเกิดขึ้นที่เกี่ยวข้องกับเทคโนโลยี AI ตามจดหมายเจ็ดหน้าที่ส่งถึงสำนักงานคณะกรรมการกำกับหลักทรัพย์และตลาดหลักทรัพย์ของสหรัฐอเมริกา (SEC) OpenAI ถูกกล่าวหาว่าใช้นโยบายที่ไม่สนับสนุนให้ทีมงานภายในเตือนประชาชนเกี่ยวกับความเสี่ยงเหล่านี้ การร้องเรียนอย่างเป็นทางการนี้ ซึ่งรายงานโดยเดอะวอชิงตันโพสต์เมื่อวันเสาร์ที่ 13 กรกฎาคม เน้นย้ำถึงความขัดแย้งภายในที่สำคัญภายในบริษัท

รายละเอียดการร้องเรียน

แม้ว่าเนื้อหาทั้งหมดของจดหมายยังคงไม่เปิดเผย แต่ผู้แจ้งเบาะแสซึ่งพูดภายใต้เงื่อนไขของการไม่เปิดเผยชื่อได้ให้ข้อมูลเชิงลึกเกี่ยวกับข้อกล่าวหา การร้องเรียนอ้างว่า OpenAI บังคับใช้ข้อสัญญาที่ผิดกฎหมายซึ่งห้ามมิให้พนักงานสื่อสารกับหน่วยงานกำกับดูแลของรัฐบาลกลาง ผู้แจ้งเบาะแสกล่าวว่านโยบายที่เข้มงวดนี้บ่อนทำลายความโปร่งใสและป้องกันไม่ให้ข้อมูลสำคัญเกี่ยวกับความเสี่ยงของ AI เข้าถึงสาธารณะและหน่วยงานที่เกี่ยวข้อง

การตอบสนองอย่างเป็นทางการของ OpenAI

เพื่อตอบสนองต่อข้อกล่าวหาเหล่านี้ OpenAI ได้ออกแถลงการณ์ปกป้องนโยบายการรักษาความลับของตน บริษัทยืนยันว่านโยบายเหล่านี้ได้รับการออกแบบมาเพื่อปกป้องทั้งพนักงานและทรัพย์สินทางปัญญาที่พัฒนาขึ้นภายใน OpenAI

“นโยบายผู้แจ้งเบาะแสของเราปกป้องสิทธิ์ของพนักงานในการเปิดเผยข้อมูลที่ได้รับการคุ้มครอง นอกจากนี้ เราเชื่อว่าการถกเถียงอย่างเข้มงวดเกี่ยวกับเทคโนโลยีนี้เป็นสิ่งจำเป็น และเราได้ทำการเปลี่ยนแปลงที่สำคัญในกระบวนการเลิกจ้างของเราเพื่อขจัดเงื่อนไขที่ไม่ดูหมิ่น” ฮันนาห์ หว่อง โฆษกของ OpenAI บริษัทยืนยันว่าบรรทัดฐานตามสัญญามีจุดมุ่งหมายเพื่อให้มั่นใจในความปลอดภัยและความมั่นคงของพนักงานและเทคโนโลยีที่เป็นกรรมสิทธิ์ที่พวกเขาพัฒนาขึ้น

ผลกระทบที่กว้างขึ้นและบริบททางอุตสาหกรรม

ข้อโต้แย้งนี้ให้ความกระจ่างในประเด็นที่กว้างขึ้นในอุตสาหกรรมเทคโนโลยี ซึ่งนโยบายการรักษาความลับภายในมักสร้างสภาพแวดล้อมที่สามารถยับยั้งการร้องเรียนที่ชอบด้วยกฎหมายและส่งเสริมสถานที่ทำงานที่เป็นพิษได้ ในระหว่างการเคลื่อนไหว #MeToo มีการหยิบยกข้อกังวลที่คล้ายกันเกี่ยวกับบริษัทอย่าง Meta (เดิมคือ Facebook) พนักงานรายงานว่านโยบายภายในของ Meta ทำให้การรายงานการล่วงละเมิดโดยไม่เปิดเผยตัวตนเป็นเรื่องยาก และการร้องเรียนจำนวนมากนำไปสู่การดำเนินการตอบโต้ที่ปลอมแปลงเป็นการปรับโครงสร้างภายใน

ปัญหาเหล่านี้ไม่ได้แยกออกจาก OpenAI หรือ Meta อุตสาหกรรมเทคโนโลยีได้เห็นหลายกรณีที่มีการใช้นโยบายภายในเพื่อปราบปรามการร้องเรียนและปกป้องบริษัทจากการตรวจสอบข้อเท็จจริง ตัวอย่างที่โดดเด่น ได้แก่ เรื่องอื้อฉาวเกี่ยวกับการล่วงละเมิดที่ Blizzard/Activision ในระหว่างดำรงตำแหน่งของอดีต CEO Bobby Kotick ซึ่งเผยให้เห็นปัญหาเชิงระบบภายในวัฒนธรรมของบริษัท

มองไปข้างหน้า

ข้อกล่าวหาต่อ OpenAI เกิดขึ้นในช่วงเวลาวิกฤติเนื่องจากเทคโนโลยี AI มีอิทธิพลมากขึ้นในภาคส่วนต่างๆ ความสามารถของพนักงานในการพูดถึงความเสี่ยงที่อาจเกิดขึ้นเป็นสิ่งสำคัญสำหรับการพัฒนาและการใช้เทคโนโลยีเหล่านี้อย่างมีความรับผิดชอบ ในขณะที่ ก.ล.ต. ตรวจสอบข้อร้องเรียน จะมีความสนใจอย่างมากว่า OpenAI จัดการกับข้อกังวลเหล่านี้อย่างไร และจะใช้นโยบายที่โปร่งใสและสนับสนุนมากขึ้นสำหรับพนักงานหรือไม่

ผลลัพธ์ของคดีนี้อาจมีผลกระทบในวงกว้าง ไม่ใช่แค่สำหรับ OpenAI แต่สำหรับอุตสาหกรรมเทคโนโลยีทั้งหมด เนื่องจากต้องต่อสู้กับการสร้างสมดุลของนวัตกรรม ความโปร่งใส และสิทธิของพนักงาน

Partager cet article

Commentaires

Inscrivez-vous à notre newsletter