GradientはEcho-2 RLフレームワークを発表し、AI研究の効率を10倍以上向上させました。
分散型 AI ラボ Gradient が Echo-2 分散強化学習フレームワークを発表分散型 AI ラボ Gradient は本日、Echo-2 分散強化学習フレームワークを発表しました。これは AI 研究のトレーニング効率の壁を打破することを目的としています。アーキテクチャ層で Learner と Actor の徹底的なデカップリングを実現することで、Echo-2 は 30B モデルの後トレーニングコストを 4,500 ドルから 425 ドルに急降下させました。同等の予算で、10 倍以上の研究スループットを実現します。このフレームワークは、ストレージと計算の分離技術を利用して非同期トレーニング (Async RL) を行い、膨大なサンプリング計算能力を不安定な GPU インスタンスと Parallax ベースの異種 GPU にオフロードします。有界古さ、インスタンス耐障害スケジューリング、独自開発の Lattica 通信プロトコルなどの技術的ブレークスルーにより、モデルの精度を保証しながらトレーニング効率を大幅に向上させます。フレームワークの発表に伴い、Gradient は RLaaS プラットフォーム Logits を発表し、AI 研究を「資本の積み上げ」から「効率の反復」パラダイムへと移行させることを目指しています。Logits は現在、世界中の学生と研究者に予約を受け付けています。