Google เปิดตัว Gemma 4: ครบครันทั้ง 4 สเปก, ได้รับอนุญาตภายใต้ Apache 2.0, ครอบคลุมตั้งแต่มือถือไปจนถึงเซิร์ฟเวอร์ทั้งหมด

ChainNewsAbmedia

Google DeepMind 6 เมษายน ได้เผยแพร่ Gemma 4 อย่างเป็นทางการแล้ว ซึ่งเป็นรุ่นที่ 4 ของโมเดลน้ำหนักแบบเปิดในตระกูล Gemma โดยเปิดตัวทั้งหมด 4 เวอร์ชัน ได้เปลี่ยนลิขสิทธิ์มาใช้ Apache 2.0 และเพิ่มการรองรับแบบเนทีฟสำหรับอินพุตแบบมัลติโหมดและเวิร์กโฟลว์ของเอเจนต์

สี่สเปกครอบคลุมตั้งแต่อุปกรณ์เคลื่อนที่ไปจนถึงเซิร์ฟเวอร์

โมเดลแบบ dense 31B อยู่อันดับที่ 3 ในบรรดาโมเดลโอเพนซอร์สในอันดับข้อความของ Arena AI;โมเดลแบบ mixture of experts ขนาด 26B อยู่อันดับที่ 6 Google ระบุว่า โมเดลขนาดใหญ่ทั้งสองนี้ยังคงมีข้อได้เปรียบเหนือโมเดลอื่น ๆ ที่มีจำนวนพารามิเตอร์มากกว่าถึง 20 เท่า ในการทดสอบเกณฑ์มาตรฐานของ Arena AI

ความสามารถหลัก:มัลติโหมด เสียง และ 140 ภาษา

ทั้งสี่เวอร์ชันรองรับอินพุตมัลติโหมดทั้งวิดีโอและรูปภาพแบบเนทีฟ ครอบคลุม OCR และความเข้าใจแผนภูมิ ในรุ่นสำหรับขอบเขต (E2B、E4B) ยังรองรับอินพุตเสียงเพิ่มเติม ซึ่งสามารถนำไปใช้ในสถานการณ์การรู้จำเสียงพูดได้

โมเดลทั้งหมดรองรับการเรียกใช้ฟังก์ชัน (function calling)、เอาต์พุต JSON แบบมีโครงสร้าง และคำสั่งระบบแบบเนทีฟที่ใช้สำหรับการสร้างเวิร์กโฟลว์ของเอเจนต์ ชุดข้อมูลสำหรับการฝึกประกอบด้วยมากกว่า 140 ภาษา

ลิขสิทธิ์เปลี่ยนจากแบบกำหนดเองมาเป็น Apache 2.0 ใช้งานเชิงพาณิชย์ได้สะดวกกว่า

ในอดีต ตระกูล Gemma ใช้ลิขสิทธิ์แบบกำหนดเองที่มีข้อจำกัดต่อการแก้ไขและการเผยแพร่ซ้ำ Gemma 4 เปลี่ยนมาใช้ลิขสิทธิ์ Apache 2.0 ซึ่งเป็นมาตรฐานในอุตสาหกรรม ทำให้สามารถนำไปใช้เชิงพาณิชย์ แก้ไข และเผยแพร่ซ้ำได้ โดยไม่จำเป็นต้องลงนามข้อตกลงเพิ่มเติมกับ Google Google ระบุว่าการดำเนินการนี้ทำให้ Gemma 4 เหมาะสมกับการใช้งานขององค์กรและนักพัฒนามากขึ้น

ขณะนี้โมเดลทั้งสี่พร้อมใช้งานแบบเปิดอย่างเต็มรูปแบบแล้ว Google ยังไม่ได้ประกาศไทม์ไลน์ในการนำโมเดลสำหรับขอบเขตไปผสานเข้ากับ Android หรือผลิตภัณฑ์ฮาร์ดแวร์สำหรับผู้บริโภค

บทความนี้ Google เปิดตัว Gemma 4:สี่สเปก ลิขสิทธิ์ Apache 2.0 ครอบคลุมตั้งแต่โทรศัพท์มือถือไปจนถึงเซิร์ฟเวอร์ ปรากฏขึ้นครั้งแรกที่ Chain News ABMedia

news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น