searchresults
2026-04-30
11:04

DeepSeek เปิดตัววิธี Visual Primitives เพื่อยกระดับการให้เหตุผลแบบมัลติโหมดในวันที่ 30 เมษายน

ตามรายงานทางเทคนิคของ DeepSeek เมื่อวันที่ 30 เมษายน บริษัทได้เปิดตัว Visual Primitives ซึ่งเป็นวิธีที่ฝังหน่วยภาพพื้นฐาน เช่น จุด (points) และกรอบครอบ (bounding boxes) ลงในสายโซ่การให้เหตุผล เพื่อแก้ปัญหา Reference Gap ในงานมัลติโหมด วิธีนี้ช่วยลดการใช้โทเคนของภาพ
liveNews.More
04:17

ต้นทุน GPU Nvidia Blackwell เพิ่มขึ้นเป็น 2 เท่า แต่ค่าใช้จ่ายสำหรับการอินเฟอเรนซ์ต่อ 1 โทเคนลดลง 35 เท่าเมื่อเทียบกับ Hopper

ตามการวิเคราะห์จากบล็อกล่าสุดของ Nvidia ชิป GPU ตระกูล Blackwell มีต้นทุนเกือบ 2 เท่าต่อชั่วโมงเมื่อเทียบกับรุ่น Hopper แต่ให้ต้นทุนการอินเฟอร์เรนซ์ต่อโทเค็นต่ำกว่าถึง 35 เท่า โดยใช้ DeepSeek-R1 เป็นโมเดลทดสอบ Blackwell (GB300 NVL72) เช่าที่ $2.65 ต่อ GPU ต่อชั่วโมง ขณะที่ Hopper อยู่ที่ $1.41 แต่เมื่อใช้ GPU เพียงตัวเดียว
liveNews.More
13:41

Alibaba Cloud ลดราคาสำหรับแคชโดยนัยของ DeepSeek-V4-Pro เหลือ 1 หยวนต่อหนึ่งล้านโทเค็นในวันที่ 29 เมษายน

ตามที่ Alibaba Cloud ระบุ แพลตฟอร์ม Bailian ของบริษัทจะลดราคาสำหรับแคชโดยนัยของโมเดล DeepSeek-V4-Pro (Implicit Cache) เหลือ 1 หยวนต่อหนึ่งล้านโทเค็น มีผลตั้งแต่วันที่ 29 เมษายน 2026 เวลา 23:59:59 ตามเวลาปักกิ่ง แคชโดยนัยจะมีผลเฉพาะเมื่อคำขอเข้าชนแคช โทเค็นอินพุตที่อยู่ในแคชจะถูกเรียกเก็บในอัตรา cached_token ในขณะที่โทเค็นอินพุตที่ไม่ได้อยู่ในแคชจะถูกคิดในอัตรา standard input_token
liveNews.More
10:37

DeepSeek เปิดตัวฟีเจอร์การรู้จำภาพในช่วงทดสอบเบต้า

ตามรายงานของ PANews, DeepSeek ได้เปิดตัวฟีเจอร์การรู้จำภาพในวันนี้ (April 29) ขณะนี้อยู่ในช่วงทดสอบเบต้า ผู้ใช้ทั้งเวอร์ชันเว็บและแอปมือถืออาจได้รับการคัดเลือกสำหรับการเปิดตัวเบต้า
09:09

นักวิจัยมัลติโหมดของ DeepSeek ส่งสัญญาณถึงโมเดลด้านการมองเห็นรุ่นใหม่ในวันที่ 29 เมษายน

เมื่อวันที่ 29 เมษายน นักวิจัยทีมมัลติโหมดของ DeepSeek อย่าง Xiaokang Chen ได้โพสต์บน X ว่า "ตอนนี้ เราเห็นคุณแล้ว" พร้อมกับภาพ 2 ภาพของมาสคอตปลาวาฬของ DeepSeek—ภาพหนึ่งมีดวงตาปิด และอีกภาพมีดวงตาเปิด โพสต์ดังกล่าวดูเหมือนจะเป็นการใบ้ถึงโมเดลด้านการมองเห็นที่จะมาถึง ซึ่งสอดคล้องกับบทบาทของเฉินในฐานะนักวิจัยของทีมมัลติโหมดของ Dee
liveNews.More
11:02

Kimi K2.6 ครองอันดับ LLM ของ OpenRouter ในสัปดาห์แรก สถิติการใช้งานพุ่ง 7,683%

ข้อความจาก Gate News วันที่ 28 เมษายน — Kimi K2.6 ซึ่งเป็นโมเดลเรือธงจาก Moonshot AI ขึ้นสู่อันดับสูงสุดของการจัดอันดับ LLM รายสัปดาห์ของ OpenRouter ด้วยจำนวนโทเค็นที่ถูกใช้งาน 1.88 ล้านล้านโทเค็น เพิ่มขึ้น 7,683% เมื่อเทียบรายสัปดาห์ โมเดลซึ่งเปิดตัวบน OpenRouter เมื่อวันที่ 20 เมษายน แซงหน้า Claude Sonnet 4.6 (1.35T, -3%) และ DeepSeek
liveNews.More
01:16
1

DeepSeek เพิ่มทุนจดทะเบียน 50% โดยสัดส่วนการถือครองของผู้ก่อตั้งเหลียง เหวินเฟิง เพิ่มขึ้นเป็น 34%

ข้อความ Gate News วันที่ 28 เมษายน — ตามข้อมูลจาก Qichacha บริษัท DeepSeek (Hangzhou Deepseek AI Basic Technology Research Co., Ltd.) เพิ่มทุนจดทะเบียนจาก 10 ล้านหยวนเป็น 15 ล้านหยวน การสนับสนุนทุนจดทะเบียนของผู้ก่อตั้งเหลียง เหวินเฟิง เพิ่มจาก 1 ล้านหยวนเป็น 5.1 ล้านหยวน
liveNews.More
00:30

ZetaChain เปิดตัว Anuma แพลตฟอร์มรวมระบบ AI ที่เน้นความเป็นส่วนตัว

ข่าว Gate News 28 เมษายน — ทีมของ ZetaChain ได้เปิดตัว Anuma อย่างเป็นทางการแล้ว ซึ่งเป็นแพลตฟอร์มการรวมระบบ AI ที่เน้นความเป็นส่วนตัว โดยช่วยให้ผู้ใช้เข้าถึงโมเดล AI ได้หลายแบบ—รวมถึง GPT, Claude, Gemini, Grok, DeepSeek, Kimi และ Qwen—ผ่านอินเทอร์เฟซเดียว Anuma มีการจัดเก็บความเป็นส่วนตัวแบบในเครื่อง การทำงานร่วมกันหลายโมเดล และระบบความจำบริบทแบบครบวงจรข้ามโมเดลต่าง ๆ
liveNews.More
06:31

DeepSeek ลดราคาของ V4-Pro ลง 75%, ตัดค่าใช้จ่ายแคชของ API เหลือเพียงหนึ่งในสิบ

ประกาศ Gate News วันที่ 27 เมษายน — DeepSeek ประกาศส่วนลด 75% สำหรับโมเดลใหม่ V4-Pro ของตนสำหรับนักพัฒนา และลดราคาการเข้าถึงแคชอินพุตทั่วทั้งไลน์อัป API เหลือเพียงหนึ่งในสิบของระดับเดิม โมเดล V4 ซึ่งเปิดตัวเมื่อวันที่ 25 เมษายนในเวอร์ชัน Pro และ Flash ได้รับการปรับให้เหมาะสมสำหรับโปรเซสเซอร์ Ascend ของ Huawei
liveNews.More
05:17

GPT-5.5 กลับมาล้ำหน้าในการเขียนโค้ด แต่ OpenAI เปลี่ยนเกณฑ์มาตรฐานหลังแพ้ Opus 4.7

ข่าวประจำเกต 27 เมษายน — SemiAnalysis บริษัทวิเคราะห์เซมิคอนดักเตอร์และ AI ได้เผยแพร่มาตรฐานเปรียบเทียบเชิงเปรียบเทียบของผู้ช่วยการเขียนโค้ด รวมถึง GPT-5.5, Claude Opus 4.7 และ DeepSeek V4 ผลค้นหาที่สำคัญ: GPT-5.5 แสดงถึงการกลับสู่ขอบล้ำในการพัฒนาโมเดลการเขียนโค้ดของ OpenAI เป็นครั้งแรกในรอบหกเดือน โดยวิศวกรของ SemiAnalysis ตอนนี้สลับไปมาระหว่าง Codex และ Claude Code หลังจากก่อนหน้านี้พึ่งพา Claude เกือบทั้งหมด GPT-5.5 อ้างอิงจากแนวทางการพรีเทรนแบบใหม่ที่มีชื่อรหัสว่า "Spud" และถือเป็นการขยายขนาดการพรีเทรนครั้งแรกของ OpenAI นับตั้งแต่ GPT-4.5. ในการทดสอบเชิงปฏิบัติที่ชัดเจน ได้แยกบทบาทออกมาอย่างชัดเจน Claude จัดการการวางแผนโครงการใหม่และการตั้งค่าเริ่มต้น ในขณะที่ Codex โดดเด่นสำหรับการแก้บั๊กที่ต้องใช้การให้เหตุผลหนักๆ Codex แสดงความเข้าใจโครงสร้างข้อมูลและการให้เหตุผลเชิงตรรกะที่แข็งแกร่งกว่า แต่กลับมีปัญหาในการคาดเดาความตั้งใจของผู้ใช้ที่ไม่ชัดเจน ในงานที่คล้ายกันบนแดชบอร์ดเดียว Claude คัดลอกเค้าโครงหน้าจากตัวอย่างได้โดยอัตโนมัติแต่ได้สร้างข้อมูลจำนวนมากขึ้นมา ในขณะที่ Codex ข้ามเรื่องเค้าโครงแต่ให้ข้อมูลที่แม่นยำกว่ามาก การวิเคราะห์เผยรายละเอียดเกี่ยวกับการปรับแต่งเกณฑ์มาตรฐาน: โพสต์บล็อกของ OpenAI ในเดือนกุมภาพันธ์ได้เรียกร้องให้วงการนำ SWE-bench Pro มาเป็นมาตรฐานใหม่สำหรับการประเมินเกณฑ์การเขียนโค้ด อย่างไรก็ตาม การประกาศของ GPT-5.5 ได้เปลี่ยนไปใช้เกณฑ์มาตรฐานใหม่ที่ชื่อ "Expert-SWE" เหตุผล—ซ่อนอยู่ในส่วนปลีกย่อย—คือ GPT-5.5 ถูก Opus 4.7 แซงบน SWE-bench Pro และทำผลงานได้ต่ำกว่ามากเมื่อเทียบกับ Mythos ที่ยังไม่เผยแพร่ของ Anthropic 77.8%. สำหรับ Opus 4.7 Anthropic เผยแพร่การวิเคราะห์สรุปหลังเหตุการณ์ (postmortem) หนึ่งสัปดาห์หลังการเปิดตัว โดยยอมรับบั๊กสามจุดใน Claude Code ที่ยังคงอยู่ต่อเนื่องเป็นเวลาหลายสัปดาห์ตั้งแต่เดือนมีนาคมถึงเมษายน ส่งผลกระทบต่อผู้ใช้งานเกือบทั้งหมด วิศวกรหลายคนเคยรายงานว่าประสิทธิภาพลดลงในเวอร์ชัน 4.6 มาก่อน แต่ถูกมองว่าเป็นข้อสังเกตเชิงอัตวิสัย นอกจากนี้ โทเคไนเซอร์ใหม่ของ Opus 4.7 เพิ่มการใช้งานโทเคนได้สูงถึง 35% ซึ่ง Anthropic ยอมรับอย่างตรงไปตรงมา—ซึ่งเท่ากับเป็นการขึ้นราคาที่ซ่อนอยู่โดยปริยาย DeepSeek V4 ถูกประเมินว่า "ตามทันความก้าวหน้าในระดับแนวหน้าแต่ไม่ได้เป็นผู้นำ" โดยวางตำแหน่งตัวเองเป็นทางเลือกที่มีต้นทุนต่ำที่สุดในบรรดาโมเดลที่ปิดซอร์ส การวิเคราะห์ยังระบุว่า "Claude ยังคงทำผลงานได้ดีกว่า DeepSeek V4 Pro ในงานเขียนภาษาจีนที่มีความยากสูง" โดยแสดงความคิดเห็นว่า "Claude ชนะโมเดลภาษาจีนในภาษาเดียวกับที่มันใช้" บทความนำเสนอแนวคิดสำคัญว่า ควรประเมินราคาของโมเดลด้วย "ต้นทุนต่อหนึ่งงาน" แทนที่จะเป็น "ต้นทุนต่อหนึ่งโทเคน" ราคาของ GPT-5.5 เป็นสองเท่าของ GPT-5.4 input $5, output per million tokens แต่ทำงานเดียวกันได้โดยใช้โทเคนน้อยกว่า ดังนั้นต้นทุนที่แท้จริงจึงไม่ได้จำเป็นต้องสูงขึ้น ข้อมูลเบื้องต้นจาก SemiAnalysis แสดงว่าอัตราส่วนอินพุตต่อเอาต์พุตของ Codex อยู่ที่ 80:1 ต่ำกว่าของ Claude Code ที่ 100:1.
liveNews.More