アマゾン AWS は Cerebras ウェーハスケール AI チップ CS-3 をデプロイし、自社の Trainium と組み合わせて使用します

robot
概要作成中

IT之家3月16日消息、アマゾンAWSとウェーハレベルのAIチップ企業Cerebrasは、米国時間の今月13日に発表しました。アマゾンのAmazon Bedrockプラットフォームは、今後数ヶ月以内に両者のチップ製品を組み合わせたハイブリッドAI推論システムを展開し、最速の負荷処理速度を実現します。

このソリューションは、CerebrasのCS-3システム、アマゾンAWSのTrainiumチップ、そしてアマゾンAWSのEFAエラスティックネットワークアダプターを組み合わせたもので、Trainiumチップが推論の事前充填(プロンプト処理)を担当し、CS-3はデコード(出力生成タスク)を担います。両者はEFAを介して接続されています。

IT之家によると、推論の事前充填は並列ワークロードに属し、大きな計算能力と適度なメモリ帯域幅を必要とします。一方、推論のデコードは本質的にシリアルであり、計算能力は小さくてもメモリ帯域幅の要求が高いです。TrainiumとCS-3を組み合わせて使用することで、各AIチップの長所を最大限に活かし、最良のエンドユーザー体験を提供します。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン