就在 AI 社群因 Anthropic Mythos 模型的安全爭議而沸騰之際,圖靈獎得主、Meta 首席 AI 科學家 Yann LeCun 在 X 上發表了一句簡潔的聲明:「จะไม่มีบุคคลใดบุคคลหนึ่ง ‘รับผิดชอบ’ ต่อความฉลาดระดับเหนือมนุษย์ได้อย่างแน่นอน」 ทวีตนี้ได้รับ 935 ไลก์และมากกว่า 100 คอมเมนต์ ซึ่งช่วยให้มุมมองด้านธรรมาภิบาลที่แตกต่างออกไปอย่างสิ้นเชิงท่ามกลางบรรยากาศตื่นตระหนกที่ Mythos ได้ก่อขึ้น
ปรัชญาด้านธรรมาภิบาลที่อยู่เบื้องหลังเพียงหนึ่งประโยค
คำชี้แจงของ LeCun ดูเหมือนจะเรียบง่าย แต่จริงๆ แล้วมันพุ่งตรงไปที่ความเข้าใจผิดทางความคิดขั้นพื้นฐานในวงถกเถียงเรื่องธรรมาภิบาล AI: การทำให้ความเสี่ยงของความฉลาดระดับเหนือมนุษย์กลายเป็นเพียงปัญหา “ใครจะเป็นคนควบคุม” เมื่อผู้คนพูดถึงความปลอดภัยของ AI เรื่องเล่าที่พบบ่อยคือการหาคน “รับผิดชอบ” — บริษัท รัฐ หรือผู้นำด้านเทคโนโลยีคนใดคนหนึ่งเพื่อ “ควบคุม” ทิศทางการพัฒนาของ AI LeCun เห็นว่าพื้นฐานนี้เองคือสิ่งที่ผิด
ท่าทีนี้สอดคล้องกับปรัชญา AI แบบเปิดของเขาอย่างต่อเนื่อง: ธรรมาภิบาลของ AI ควรเป็นแบบกระจายอำนาจ เป็นระบบ และมีส่วนร่วมจากหลายฝ่าย ไม่ใช่ไปกระจุกอยู่ในมือของหน่วยงานใดหน่วยงานหนึ่งเพียงเท่านั้น
การคิดกลับกันในข้อถกเถียงของ Mythos
จังหวะที่ LeCun พูดออกมานั้นน่าคิด ในวันเดียวกันนั้นเอง Matt Shumer เรียกโมเดล Mythos ของ Anthropic ว่า “อาวุธบนอินเทอร์เน็ต” ขณะที่ Ethan Mollick แสดงความตกใจด้วย “Oh no.” ปฏิกิริยาเหล่านี้มีตรรกะแฝงอยู่คือ: AI ที่ทรงพลังขนาดนั้นจำเป็นต้องถูกควบคุมอย่างเข้มงวด และควรให้ “ผู้เฝ้าประตู” ที่รับผิดชอบเป็นคนจัดการ
แต่จุดยืนของ LeCun ตรงกันข้าม—เขาไม่เชื่อว่าการที่ “บริษัทหนึ่งตัดสินใจไม่ปล่อยให้ใช้งาน” จะเป็นหลักประกันด้านความปลอดภัย หากมีเพียงไม่กี่บริษัทที่เป็นเจ้าของ AI ระดับความฉลาดระดับเหนือมนุษย์ และการตัดสินใจฝ่ายเดียวของบริษัทเหล่านั้นสามารถกำหนดเส้นทางการพัฒนา AI ทั่วโลกได้ นั่นย่อมเป็นความเสี่ยงอย่างหนึ่ง การควบคุมแบบรวมศูนย์ไม่เท่ากับความปลอดภัย แต่อาจสร้างความไม่สมดุลของอำนาจรูปแบบใหม่ได้
ความท้าทายของธรรมาภิบาลแบบกระจายอำนาจ
จุดยืนของ LeCun ก็เผชิญกับความท้าทายเชิงรูปธรรมเช่นกัน ธรรมาภิบาลแบบกระจายอำนาจฟังดูเหมาะในทางทฤษฎี แต่ในความเป็นจริงที่ขีดความสามารถของ AI เพิ่มขึ้นแบบทวีคูณ “ไม่มีใครรับผิดชอบ” อาจหมายถึง “ไม่มีใครรับผิดชอบได้” เมื่อโมเดลหนึ่งสามารถหาช่องโหว่ศูนย์เดย์ได้ การเข้าถึงแบบเปิดยังคงเป็นกลยุทธ์ที่ดีที่สุดหรือไม่?
นี่คือความขัดแย้งหลักของการถกเถียงเรื่องธรรมาภิบาล AI ในปัจจุบัน: ความเสี่ยงที่อำนาจจากการควบคุมแบบรวมศูนย์จะถูกนำไปใช้ในทางที่ผิด กับความเสี่ยงที่ความสามารถจากการเปิดกว้างแบบกระจายจะแปลงไปใช้ในทางที่ผิด ประโยคเดียวของ LeCun ไม่ได้แก้ไขความขัดแย้งนี้ แต่ทำให้ผู้คนต้องหันกลับมาพิจารณาอีกครั้งว่า “การหาคนสักคนให้เป็นผู้รับผิดชอบ” ซึ่งดูเหมือนจะเป็นวิธีแก้ที่สัญชาตญาณนั้น จริงๆ แล้วใช้ได้จริงหรือไม่
ข้อคิดต่อการถกเถียงเรื่องธรรมาภิบาล AI
ระหว่างความตื่นตระหนกที่เกิดจาก Mythos กับการคิดทบทวนอย่างสงบนิ่งของ LeCun เราเห็นความแตกต่างเชิงรากของสำนักคิดสองฝ่ายในธรรมาภิบาล AI: ฝ่ายที่เน้นความปลอดภัยสนับสนุนการจำกัดความสามารถและการควบคุมแบบรวมศูนย์ ในขณะที่ฝ่ายที่สนับสนุนการเปิดกว้างสนับสนุนการเข้าถึงอย่างกว้างขวางและธรรมาภิบาลแบบกระจายอำนาจ การถกเถียงครั้งนี้คงไม่มีข้อสรุปที่ง่าย แต่สำหรับผู้กำหนดนโยบายของไต้หวันผู้ที่ให้ความสำคัญกับนโยบาย AI การเข้าใจแรงดึงระหว่างความสุดโต่งทั้งสองด้านนี้คือบทเรียนที่จำเป็นสำหรับการกำหนดกลยุทธ์ธรรมาภิบาล AI ในท้องถิ่น
บทความนี้ LeCun ตอบโต้การโต้เถียงเรื่องความฉลาดระดับเหนือมนุษย์ด้วยหนึ่งประโยค ซึ่งปรากฏครั้งแรกใน 鏈新聞 ABMedia。