1. TOP
  2. ブログ
  3. Google Cloudで提供される生成AI対応の「TPU v5e」とはどんなプロセッサ?

Google Cloudで提供される生成AI対応の「TPU v5e」とはどんなプロセッサ?

検索エンジンサービスで馴染み深いGoogleは、近年開発者向けのクラウドサービスを提供していることでも存在感を発揮しています。中でもAI開発関連のサービスは同社が注力している領域であり、新しいソリューションの提供が顕著です。

この記事では、そんなGoogleのクラウドサービスであるGoogle Cloud上で提供される、生成AI対応の最新プロセッサ「TPU v5e」について、概要を解説します。

目次:

  1. GoogleのTPUとは
  2. 生成AIの課題
  3. Google Cloudで提供される「TPU v5e」の概要
  4. TPU v5eの強み
  5. TPU v5eで導入されたマルチスライス構造とは

GoogleのTPUとは

AI開発に欠かせないのが、高度な処理能力を持ったプロセッサの存在です。機械学習はとにかく負荷が大きく、一般的なCPUなどでは開発に途方もない時間がかかります。

そこでGoogleが独自に提供しているのが、TPU(Tensor Processing Unit)と呼ばれるディープラーニングの高速化に最適化されたプロセッサです。ディープラーニングは高度なAI開発には欠かせない、近年主流となっている機械学習手法ですが、通常の機械学習よりも大きな負荷が発生します。

TPUはこのような負担の大きなタスクにも対応できるよう実装され、同社の「Google検索」や「Google翻訳」などのサービスにて活躍しているだけでなく、一般への提供が行われています。

TPUは同社の機械学習サービスであるTensorflowの運用を想定して提供されており、従量課金制での使用が可能であるなど、比較的気軽に試しやすいプロセッサです。

生成AIの課題

近年最も注目を集めているAI関連のトピックが、生成AIです。OpenAIの提供する「ChatGPT」をはじめ、生成AIを使ったサービス開発が劇的に進んでいる一方、既存の生成AIを活用するだけでなく、自社で独自のAIを開発する動きも加速しています。

生成AIの利便性や汎用性の高さは多くの組織やサービスによって証明されており、日々の業務の多くを効率化できることから、今後はあらゆる領域において生成AIの活用がスタンダードとなる事が予想されます。

ただ、生成AIの開発において課題となるのが、やはりリソースの不足です。ディープラーニングによって膨大なデータの学習を行わなければならない生成AI開発は、相応のリソースを用意できなければ開発競争において生き残ることは難しいでしょう。

膨大すぎる生成AI開発のリソースは、十分な時間と費用を確保できる大企業にのみAIが開発可能という寡占化をもたらしかねず、民主的なテクノロジー開発の機会を失う恐れもあります。このような状況を打破できるソリューションは、社会にとって不可欠な存在と言えるのです。

Google Cloudで提供される「TPU v5e」の概要

GoogleのTPUは、上記のようなAI開発の課題を解消するために運用されているプロセッサですが、2023年8月に新しく発表されたのが、最新式のTPUである「TPU v5e」です*1。

高性能なチャットボット開発には欠かせないLLM(大規模言語モデル)や生成AIの開発に特化した、高い性能とコストパフォーマンスを強みとするサービスであり、従来よりも優れたAI開発の機会を与えてくれる事が期待できます。

現在、TPU v5eはプレビュー提供の段階のため、一般提供はまだ先になるという事ですが、近いうちに同プロセッサがGoogle Cloudを活用した際のAI開発のスタンダードとなるでしょう。

TPU v5eの強み

TPU v5eは、とにかく高度な処理能力を備えている事が特徴です。一世代前のモデルであるTPU v4と比較しても、1ドルあたりで最大2倍のトレーニングパフォーマンスを得られるだけでなく、1ドル当たり最大2.5倍の推論パフォーマンスも期待できるなど、少ないコストで高度な学習効果を得る事ができます*2。

これまでTPU v4を利用していたユーザーも、従来の半分のコストで大規模で複雑なAIモデルを開発し、より高度なAIサービスの実装に期待が持てるでしょう。

また、TPU v5eのコストパフォーマンスについては他社の同様のソリューションと比較しても優れているとされています。1ドル換算で最大4倍程度のパフォーマンスを発揮でき、それに加えて多用途に実装できることから、他のソリューションからTPU v5eに移行する場合でも十分な対価を得られるでしょう。

TPU v5eはTensorflowへの対応だけでなく、各主要AIフレームワークとの互換性も備えています。JAXやPyTorchなどには公式に対応しているので、これらのフレームワークを組み込みたい方も安心です。

TPU v5eで導入されたマルチスライス構造とは

Google CloudのTPU v5eがここまで高いスペックを誇る事ができた理由として大きいのが、マルチスライス構造と呼ばれる新しい仕組みを実装したことです。TPU v5eについての詳しいスペックの全ては公開されていないものの、TPU v4と比較できる点として1つのPodあたりに何基のチップを内蔵できるかが挙げられます。

TPU v4は、1つのPodあたりで4096基のチップまで拡張が可能でしたが、TPU v5では最大256基までのスケールアップにしか対応していません。これはGoogleが意図的に設計している仕様であり、学習演算の際に1つのスライスしか使用できない設計になっていたからなのですが、TPU v5eでは複数のスライスを運用可能となっています*3。

複数のスライスを一つの処理に対して使用できるようになった結果、従来では数千のチップまでしか運用ができなかったのが、TPU v5eでは数万のチップが運用可能となりました。

これにより、高い処理能力をTPUが得られるようになっただけでなく、1つのポッドあたりのチップ数を抑えたことで消費電力を抑制し、コストパフォーマンスの改善にも成功したということです。

まとめ

この記事では、Google Cloud上で提供される最新のプロセッサであるTPU v5eについて解説しました。生成AI開発競争が激化する中、TPU v5eのような高性能かつ費用対効果に優れるクラウドサービスは欠かせない存在となってきており、多くのシェアを獲得する事が予想されます。

一般への提供はまだ先となりそうですが、Googleが提供するAI開発特化のサービスには今後も注目が集まるでしょう。

建築・土木業向け BIM/CIMの導入方法から活用までがトータルで理解できる ホワイトペーパー配布中!

❶BIM/CIMの概要と重要性
❷BIM/CIM導入までの流れ
❸BIM/CIM導入でよくある失敗と課題
❹BIM活用を進めるためのポイント
についてまとめたホワイトペーパーを配布中

参考:

*1 GIGAZINE「GoogleがAI特化プロセッサTPUの第5世代モデル「TPU v5e」を発表、前モデル比で1ドル当たりのトレーニングパフォーマンス最大2倍・推論パフォーマンス最大2.5倍」

https://gigazine.net/news/20230830-google-cloud-tpu-v5e-a3/

*2 上に同じ

*3 クラウドWatch「生成AI対応のためにML/DL処理能力向上を目指すGoogle Cloudが発表した“TPU v5e”とは何か?」

https://cloud.watch.impress.co.jp/docs/news/1528806.html

    ホワイトペーパーフォームバナー

    【DL可能な資料タイトル】

    • ・プログラムによる建築/土木設計のQCD(品質/コスト/期間)向上
    • ・BIM/CIMの導入から活用までの手引書
    • ・大手ゼネコンBIM活用事例と建設業界のDXについて
    • ・デジタルツイン白書
    • ・建設業/製造業におけるデジタルツインの実現性と施設管理への応用

    詳細はこちら>>>

    PAGE TOP