Amazon Web Services(AWS)は、ラスベガスで開催中のイベント「AWS re:Invent 2023」の基調講演で、AIのトレーニングに最適化した独自プロセッサ「AWS Trainium2」を発表しました。
Trainium2は、最大数兆個のパラメータを持つ基盤モデルおよび大規模言語モデルのトレーニング用に設計されています。
2020年に発表された第一世代のTrainiumチップと比較して、最大4倍のトレーニング性能と3倍のメモリ容量を実現し、エネルギー効率(性能/ワット)を最大2倍まで改善するように設計されています。
Trainium2は、単一のインスタンスに16個のTrainiumチップを含むAmazon EC2 Trn2インスタンスで利用可能になります。
Trn2インスタンスは、AWS Elastic Fabric Adapter(EFA)のペタビットスケールネットワーキングで相互接続された次世代EC2 UltraClusterにおいて、Trainium2チップを最大10万個までスケールアップできるようになり、このレベルのスケールでは3000億パラメータの大規模言語モデルを数週間から数カ月でトレーニングできると説明されています。
この記事は新野淳一氏が運営するメディア「Publickey」が2023年11月29日に掲載した『[速報]AWS、大規模言語モデルのトレーニングに最適化した独自プロセッサ「AWS Trainium2」発表。前モデルより最大4倍のトレーニング性能。AWS re:Invent 2023』を、テクノエッジ編集部にて編集し、転載したものです。