Glossar

GPU (Grafikverarbeitungseinheit)

Entdecken Sie, wie GPUs KI und maschinelles Lernen revolutionieren, indem sie Deep Learning beschleunigen, Workflows optimieren und reale Anwendungen ermöglichen.

Eine Grafikverarbeitungseinheit (GPU) ist ein spezialisierter elektronischer Schaltkreis, der ursprünglich dazu entwickelt wurde, die Erstellung und Wiedergabe von Bildern, Videos und Animationen zu beschleunigen. Während GPUs ursprünglich in der Spiele- und Grafikdesignbranche eingesetzt wurden, hat ihre einzigartige Architektur sie zu einem unverzichtbaren Werkzeug in der modernen künstlichen Intelligenz (KI) und dem maschinellen Lernen (ML) gemacht. GPUs verfügen über Tausende von parallel arbeitenden Rechenkernen, die es ihnen ermöglichen, große Mengen an Berechnungen gleichzeitig durchzuführen. Diese Fähigkeit eignet sich hervorragend für die rechenintensiven Aufgaben, die in Deep-Learning-Algorithmen vorkommen, und ermöglicht ein schnelleres Modelltraining und effiziente Inferenzen in Echtzeit. Das Verständnis der Entwicklung der GPU liefert den Kontext für ihre aktuelle Rolle in der KI.

Bedeutung für KI und maschinelles Lernen

Die Parallelverarbeitungsfähigkeiten von Grafikprozessoren sind ein wichtiger Katalysator für die jüngsten Durchbrüche in der KI. Das Training tiefer neuronaler Netze erfordert die Verarbeitung enormer Datensätze und die Durchführung zahlloser komplexer mathematischer Operationen, wie z. B. Matrixmultiplikationen. GPUs beherrschen diese Operationen hervorragend und verkürzen die Zeit, die zum Trainieren von Modellen benötigt wird, im Vergleich zu herkömmlichen Zentraleinheiten (CPUs) drastisch. Diese Beschleunigung ermöglicht es Forschern und Entwicklern im Bereich der KI-Entwicklung, schneller zu iterieren, mit größeren und komplexeren Modellen zu experimentieren und eine höhere Genauigkeit bei Aufgaben wie Objekterkennung und Bildsegmentierung zu erreichen.

Hier sind zwei Beispiele für den Einsatz von GPUs in realen AI/ML-Anwendungen:

  1. Objekterkennung in Echtzeit: Die YOLO-Modelle von Ultralytics, die für ihre Geschwindigkeit und Effizienz bekannt sind, stützen sich in hohem Maße auf GPUs, um die Objekterkennung in Echtzeit für Anwendungen wie autonomes Fahren, Sicherheitsüberwachung(Verbesserung der Sicherheitssysteme) und Robotik durchzuführen. Dank der Parallelität von GPUs können diese Modelle Videobilder schnell verarbeiten und mehrere Objekte gleichzeitig genau erkennen. Entdecken Sie die verschiedenen YOLO11-Anwendungen, die durch GPU-Beschleunigung ermöglicht werden.
  2. Training großer Modelle: Die Schulung großer Sprachmodelle (LLMs) oder komplexer Computer-Vision-Modelle erfordert oft eine erhebliche Rechenleistung, auf die häufig über Cloud-Computing-Plattformen zugegriffen wird. Dienste wie Ultralytics HUB Cloud Training nutzen leistungsstarke GPU-Cluster von Anbietern wie AWS, Google Cloud und Azure, um Modelle auf riesigen Datensätzen für Aufgaben zu trainieren, die von der Verarbeitung natürlicher Sprache (NLP) bis zur fortgeschrittenen medizinischen Bildanalyse reichen.

Hauptunterschiede zu CPUs und TPUs

Während GPUs, CPUs und Tensor Processing Units (TPUs ) alle Arten von Prozessoren sind, haben sie unterschiedliche Stärken und sind für unterschiedliche Aufgaben optimiert:

  • CPU (Central Processing Unit): Entwickelt für die allgemeine Datenverarbeitung, die sich durch sequenzielle Aufgaben und die Verwaltung von Systemoperationen auszeichnet. CPUs haben einige leistungsstarke Kerne, die für niedrige Latenzzeiten optimiert sind. Siehe Übersicht CPU vs. GPU.
  • GPU (Graphics Processing Unit): Optimiert für parallele Operationen mit Tausenden von einfacheren Kernen. Ideal für Aufgaben, die aufgeteilt und gleichzeitig verarbeitet werden können, wie das Rendern von Grafiken und das Trainieren von Deep-Learning-Modellen. Die gemessene Leistung umfasst oft Metriken wie FLOPS.
  • TPU (Tensor Processing Unit): Ein von Google entwickelter anwendungsspezifischer integrierter Schaltkreis (ASIC), der speziell für die Beschleunigung von maschinellen Lernprozessen unter Verwendung des TensorFlow-Frameworks entwickelt wurde. Sie sind hochgradig für umfangreiche Matrixoperationen optimiert, die in neuronalen Netzwerken üblich sind. Erfahren Sie mehr über die TPU-Details von Google.

GPUs bieten ein ausgewogenes Verhältnis zwischen hoher Leistung für parallele Verarbeitungsaufgaben und Vielseitigkeit für verschiedene Anwendungen, was sie zu einer beliebten Wahl für viele KI- und HPC-Arbeitslasten macht.

Ökosystem und Nutzung

Die breite Einführung von Grafikprozessoren in der KI wird durch robuste Software-Ökosysteme unterstützt. Große Hersteller wie NVIDIA und AMD bieten GPUs an, die für KI-Aufgaben geeignet sind. Die CUDA-Plattform (Compute Unified Device Architecture) von NVIDIA ist eine weit verbreitete Plattform für parallele Berechnungen und ein Programmiermodell für NVIDIA-GPUs. Deep-Learning-Frameworks wie PyTorch und TensorFlow sind für die Nutzung der GPU-Beschleunigung optimiert. Die Einrichtung von Umgebungen für die GPU-beschleunigte Entwicklung kann mit Containerisierungstools wie Docker rationalisiert werden; Anweisungen zur Einrichtung finden Sie in der Ultralytics Docker Quickstart-Anleitung. Eine effiziente Modellbereitstellung beinhaltet oft die Optimierung der Modelle für eine effektive Ausführung auf der Ziel-GPU-Hardware. Entdecken Sie verschiedene Ultralytics-Lösungen, die die GPU-Leistung nutzen.

Werden Sie Mitglied der Ultralytics-Gemeinschaft

Beteiligen Sie sich an der Zukunft der KI. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert