広場
最新
注目
ニュース
プロフィール
ポスト
Ivan623
2026-04-07 06:00:28
フォロー
1M AI Newsのモニタリングによると、インフラストラクチャの出力に取り組むFireworks AIは、Fireworks Trainingのプレビューをリリースし、純粋な出力プラットフォームから学習と展開のための統合プラットフォームへと拡大しています。Fireworks AIは、Metaの元エンジニアでPyTorchの開発に関与したリン・ツァオによって設立され、現在は1日あたり15兆トークンを処理し、評価額は40億ドルに達しています。同プラットフォームは3つのレベルを提供します:1. エージェント学習:MLインフラのないプロダクトチーム向けで、タスクの記述とデータのアップロードにより、学習から展開までの全プロセスを完了でき、現在はLoRAのみをサポート;2. 管理された学習:MLエンジニア向けで、SFT、DPO、強化学習による微調整をサポートし、パラメータの完全な学習を含む;3. API学習:研究チーム向けで、損失関数や学習サイクルのカスタマイズを可能にし、GRPOやDAPOなどのアルゴリズムをサポートし、64 NVIDIA B200上で1ノードのQwen3 8BからKimi K2.5 (兆パラメータ)までの大規模パラメータ学習を実現しています。Fireworks AIの生産出力、Cursorのプログラミングツール、Vercel、Gensparkは、このプラットフォーム上で最先端の強化学習を完了しました。Vercelは、コード生成製品v0の誤り自動修正モデルを訓練し、コードの誤りなし生成率は93%に達し、Sonnet 3.5の62%と比較して大幅に向上、エンドツーエンドの遅延も従来のクローズドモデルと比べて40倍改善しました。Gensparkは、強化学習を用いてオープンモデルのトリリオンパラメータKimi K2を微調整し、深層研究エージェントを作成、ツールの利用率を33%増加させ、コストを50%削減しました。Cursorは、世界中の3-4クラスターでComposer 2の分散強化学習を完了し(現在、CursorBench)でトップに立ち、学習と生産出力のために同じGPUプールを共有しています。Fireworks AIは、学習と出力の間の数値的一貫性において重要な技術的差別化を強調しています。MoE (混合専門家グループ)モデルは、密なモデルよりも数値的に脆弱であり、隠れ状態のわずかな変化が専門家のルーティングを変え、カスケード効果を増幅させる可能性があります。Fireworksは、サポートされるすべてのモデルにおいて、学習と出力間のKLダイバージェンスの値を公開し、すべて0.01未満です。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については
免責事項
をご覧ください。
1 いいね
報酬
1
1
リポスト
共有
コメント
コメントを追加
コメントを追加
コメント
KatyPaty
· 6時間前
月へ 🌕
原文表示
返信
0
人気の話題
もっと見る
#
GateSquareAprilPostingChallenge
810.22K 人気度
#
CryptoMarketSeesVolatility
192.93K 人気度
#
IsraelStrikesIranBTCPlunges
25.99K 人気度
#
OilPricesRise
203K 人気度
#
TrumpIssuesUltimatum
490.63K 人気度
人気の Gate Fun
もっと見る
Gate Fun
KOL
最新
ファイナライズ中
リスト済み
1
¥akxn
光
時価総額:
$2.23K
保有者数:
1
0.00%
2
DonPun
Donald Punk
時価総額:
$2.23K
保有者数:
1
0.00%
3
DonPun
Donald Punk
時価総額:
$2.23K
保有者数:
1
0.00%
4
Moon
Moon Mission
時価総額:
$2.23K
保有者数:
1
0.00%
5
red
red
時価総額:
$2.23K
保有者数:
0
0.00%
ピン
サイトマップ
1M AI Newsのモニタリングによると、インフラストラクチャの出力に取り組むFireworks AIは、Fireworks Trainingのプレビューをリリースし、純粋な出力プラットフォームから学習と展開のための統合プラットフォームへと拡大しています。Fireworks AIは、Metaの元エンジニアでPyTorchの開発に関与したリン・ツァオによって設立され、現在は1日あたり15兆トークンを処理し、評価額は40億ドルに達しています。同プラットフォームは3つのレベルを提供します:1. エージェント学習:MLインフラのないプロダクトチーム向けで、タスクの記述とデータのアップロードにより、学習から展開までの全プロセスを完了でき、現在はLoRAのみをサポート;2. 管理された学習:MLエンジニア向けで、SFT、DPO、強化学習による微調整をサポートし、パラメータの完全な学習を含む;3. API学習:研究チーム向けで、損失関数や学習サイクルのカスタマイズを可能にし、GRPOやDAPOなどのアルゴリズムをサポートし、64 NVIDIA B200上で1ノードのQwen3 8BからKimi K2.5 (兆パラメータ)までの大規模パラメータ学習を実現しています。Fireworks AIの生産出力、Cursorのプログラミングツール、Vercel、Gensparkは、このプラットフォーム上で最先端の強化学習を完了しました。Vercelは、コード生成製品v0の誤り自動修正モデルを訓練し、コードの誤りなし生成率は93%に達し、Sonnet 3.5の62%と比較して大幅に向上、エンドツーエンドの遅延も従来のクローズドモデルと比べて40倍改善しました。Gensparkは、強化学習を用いてオープンモデルのトリリオンパラメータKimi K2を微調整し、深層研究エージェントを作成、ツールの利用率を33%増加させ、コストを50%削減しました。Cursorは、世界中の3-4クラスターでComposer 2の分散強化学習を完了し(現在、CursorBench)でトップに立ち、学習と生産出力のために同じGPUプールを共有しています。Fireworks AIは、学習と出力の間の数値的一貫性において重要な技術的差別化を強調しています。MoE (混合専門家グループ)モデルは、密なモデルよりも数値的に脆弱であり、隠れ状態のわずかな変化が専門家のルーティングを変え、カスケード効果を増幅させる可能性があります。Fireworksは、サポートされるすべてのモデルにおいて、学習と出力間のKLダイバージェンスの値を公開し、すべて0.01未満です。