IT之家3月16日消息、アマゾンAWSとウェーハレベルのAIチップ企業Cerebrasは、米国時間の今月13日に発表しました。アマゾンのAmazon Bedrockプラットフォームは、今後数ヶ月以内に両者のチップ製品を組み合わせたハイブリッドAI推論システムを展開し、最速の負荷処理速度を実現します。このソリューションは、CerebrasのCS-3システム、アマゾンAWSのTrainiumチップ、そしてアマゾンAWSのEFAエラスティックネットワークアダプターを組み合わせたもので、Trainiumチップが推論の事前充填(プロンプト処理)を担当し、CS-3はデコード(出力生成タスク)を担います。両者はEFAを介して接続されています。IT之家によると、推論の事前充填は並列ワークロードに属し、大きな計算能力と適度なメモリ帯域幅を必要とします。一方、推論のデコードは本質的にシリアルであり、計算能力は小さくてもメモリ帯域幅の要求が高いです。TrainiumとCS-3を組み合わせて使用することで、各AIチップの長所を最大限に活かし、最良のエンドユーザー体験を提供します。
アマゾン AWS は Cerebras ウェーハスケール AI チップ CS-3 をデプロイし、自社の Trainium と組み合わせて使用します
IT之家3月16日消息、アマゾンAWSとウェーハレベルのAIチップ企業Cerebrasは、米国時間の今月13日に発表しました。アマゾンのAmazon Bedrockプラットフォームは、今後数ヶ月以内に両者のチップ製品を組み合わせたハイブリッドAI推論システムを展開し、最速の負荷処理速度を実現します。
このソリューションは、CerebrasのCS-3システム、アマゾンAWSのTrainiumチップ、そしてアマゾンAWSのEFAエラスティックネットワークアダプターを組み合わせたもので、Trainiumチップが推論の事前充填(プロンプト処理)を担当し、CS-3はデコード(出力生成タスク)を担います。両者はEFAを介して接続されています。
IT之家によると、推論の事前充填は並列ワークロードに属し、大きな計算能力と適度なメモリ帯域幅を必要とします。一方、推論のデコードは本質的にシリアルであり、計算能力は小さくてもメモリ帯域幅の要求が高いです。TrainiumとCS-3を組み合わせて使用することで、各AIチップの長所を最大限に活かし、最良のエンドユーザー体験を提供します。