[GPU(Graphics Processing Unit)]
リアルタイム画像処理に特化した演算装置、プロセッサ。行列演算を高速に実現できる。
[GPGPU]
画像以外に関して大規模計算を行う。
GPU T4:
用途: 機械学習やディープラーニングのトレーニングと推論、グラフィックス処理など、幅広い用途で使用できる汎用のGPUです。
性能: T4はNVIDIAのTuringアーキテクチャに基づいており、約16 GBのGPUメモリを持っています。GPUのコア数やクロック速度はミッドレンジで、多くの一般的な機械学習タスクに適しています。
価格: T4は一般的に比較的低価格で、コスト効率が高い選択肢です。
GPU P100:
用途: 機械学習、ディープラーニング、科学計算など、高性能計算タスクに適しています。特に、大規模なディープラーニングモデルのトレーニングに使用されます。
性能: P100はNVIDIAのPascalアーキテクチャに基づいており、16 GBから24 GBのGPUメモリを持っています。性能は高く、複雑な計算に対して高速な処理が可能です。
価格: P100は高性能なため、使用料金も高めです。通常、大規模な計算プロジェクトや研究プロジェクトで使用されます。
[TPU]
Google社が開発しているテンソル計算処理に最適化されたもの。
TPU VM v3-8:
用途: GoogleのTensor Processing Unit(TPU)は、主に機械学習ワークロードに特化しています。特に、TensorFlowなどの機械学習フレームワークとの統合が強化されています。
性能: TPU VM v3-8はGoogle Cloud上で提供され、8つのTPUコアを持っています。TPUはTensorFlowのようなフレームワークとの統合が優れており、特に大規模なディープラーニングモデルのトレーニングに優れた性能を発揮します。
価格: TPU VMはGoogle Cloudで提供され、利用に応じて料金が発生しますが、価格は一般的にリーズナブルです。
[CUDA(Compute Unified Device Architecture:クーダ)]
NVIDIAが開発・提供している、GPU向けの汎用並列コンピューティングプラットフォーム(並列コンピューティングアーキテクチャ)およびプログラミングモデル。
ディープラーニングで使用するGPUは、NVIDIA製のGPUがデフォルトスタンダードとなっている。
NVIDIAはcuDNNというライブラリも提供している。