用語集

GPU(グラフィックス・プロセッシング・ユニット)

ディープラーニングを加速し、ワークフローを最適化し、実世界のアプリケーションを可能にすることで、GPUがAIと機械学習にどのような革命をもたらすかをご覧ください。

グラフィック・プロセッシング・ユニット(GPU)は、画像、ビデオ、アニメーションの作成とレンダリングを高速化するために設計された特殊な電子回路である。GPUはゲームやグラフィックデザイン業界で生まれたが、そのユニークなアーキテクチャにより、現代の人工知能(AI)や機械学習(ML)において不可欠なツールとなっている。GPUは何千もの処理コアを持ち、並列に動作するため、大量の計算を同時に処理することができる。この能力は、ディープラーニング・アルゴリズムに見られる計算負荷の高いタスクに非常に適しており、より高速なモデル学習と効率的なリアルタイム推論を可能にします。GPUの進化を理解することで、AIにおけるGPUの現在の役割を理解することができます。

AIと機械学習における重要性

GPUの並列処理能力は、最近のAIにおけるブレークスルーの主なきっかけとなっている。ディープ・ニューラル・ネットワークのトレーニングには、膨大なデータセットを処理し、行列の乗算など数え切れないほどの複雑な数学演算を実行する必要がある。GPUはこれらの演算を得意とし、従来の中央演算処理装置(CPU)に比べてモデルの学習に必要な時間を大幅に短縮します。この高速化により、AI開発分野の研究者や開発者は、より迅速な反復、より大規模で複雑なモデルの実験、物体検出や 画像セグメンテーションのようなタスクでより高い精度を達成することができます。

実際のAI/MLアプリケーションにおけるGPUの例を2つ紹介しよう:

  1. リアルタイムの物体検出:スピードと効率性で知られるUltralytics YOLOモデルは、自律走行、セキュリティ監視(セキュリティシステムの強化)、ロボット工学などの用途で、リアルタイムで物体検出を行うためにGPUに大きく依存しています。GPUの並列性により、これらのモデルはビデオフレームを迅速に処理し、同時に複数の物体を正確に識別することができます。GPUアクセラレーションが可能にする多様なYOLO11アプリケーションをご覧ください。
  2. 大規模モデルのトレーニング:大規模な言語モデル(LLM)や複雑なコンピュータビジョンモデルのトレーニングには、多くの場合、クラウドコンピューティングプラットフォームを介してアクセスされる大規模な計算能力が必要です。Ultralytics HUB Cloud Trainingのようなサービスは、AWSGoogle CloudAzureのようなプロバイダーの強力なGPUクラスターを活用し、自然言語処理(NLP)から高度な医療画像解析に至るまで、膨大なデータセットでモデルをトレーニングします。

CPUやTPUとの主な違い

GPU、CPUテンソル処理ユニット(TPU)はすべてプロセッサーの一種であるが、それぞれ異なる強みを持ち、異なるタスクに最適化されている:

  • CPU(中央演算処理装置):汎用コンピューティング用に設計され、シーケンシャルなタスクやシステム操作の管理に優れている。CPUには、低レイテンシに最適化された強力なコアがいくつかあります。CPUとGPUの概要をご覧ください。
  • GPU(グラフィックス・プロセッシング・ユニット):数千の単純なコアで並列処理に最適化されている。グラフィックスのレンダリングやディープラーニングモデルの学習など、分解して同時に処理できるタスクに最適。性能の測定には、FLOPSのような指標が用いられることが多い。
  • TPU(Tensor Processing Unit): TensorFlowフレームワークを使用した機械学習ワークロードを高速化するために特別に構築された、Googleのカスタム設計の特定用途向け集積回路(ASIC)。ニューラルネットワークで一般的な大規模行列演算に高度に最適化されている。詳しくはGoogleのTPUの詳細をご覧ください。

GPUは、並列処理タスクにおける高い性能と、さまざまなアプリケーションにおける汎用性とのバランスを取ることで、多くのAIやハイパフォーマンス・コンピューティング(HPC)のワークロードによく使われる選択肢となっている。

エコシステムと利用

AIにおけるGPUの普及は、強固なソフトウェア・エコシステムによって支えられている。NVIDIAや AMDといった大手メーカーは、AIタスクに適したGPUを提供している。NVIDIAのCUDA(Compute Unified Device Architecture)プラットフォームは、NVIDIA GPU用の並列コンピューティング・プラットフォームおよびプログラミング・モデルとして広く使われている。PyTorchやTensorFlowなどのディープラーニングフレームワークは、GPUアクセラレーションを活用するように最適化されています。GPUアクセラレーション開発のための環境構築は、Dockerのようなコンテナ化ツールを使用して効率化できます。セットアップ手順については、UltralyticsDocker Quickstartガイドを参照してください。効率的なモデル展開には、ターゲットGPUハードウェア上で効率的に実行できるようにモデルを最適化することがよく含まれます。GPUパワーを活用する様々なUltralyticsソリューションをご覧ください。

Ultralyticsコミュニティに参加する

AIの未来に参加しませんか。世界のイノベーターとつながり、協力し、成長する

今すぐ参加する
クリップボードにコピーされたリンク