Wirtschaft

Google will TPUs für PyTorch fit machen

Neue Konkurrenz im KI-Chipmarkt

1 Min.

18.12.2025

Google arbeitet aktiv daran, seine Tensor Processing Units (TPUs), eigene KI-Beschleunigerchips, für den weltweit meistgenutzten KI-Entwicklungsrahmen PyTorch zu optimieren. Traditionell sind TPUs zwar leistungsfähige KI-Chips von Google, ihre Nutzung war jedoch bislang vor allem mit TensorFlow oder Jax – weniger mit dem dominierenden PyTorch-Stack – komfortabel möglich. Dieser Nachteil hat Nvidia einen klaren Vorsprung verschafft, weil die meisten Entwickler ihre Modelle über PyTorch auf Nvidia-GPUs trainieren und ausführen.

Das Vorhaben, intern unter dem Projektnamen »TorchTPU« vorangetrieben, soll diese Hürde überwinden und TPUs auf Augenhöhe mit Nvidia-Hardware im beliebten Software-Ökosystem lauffähig machen. Google arbeitet dabei eng mit Meta zusammen, dem Hauptunterstützer von PyTorch, um die Kompatibilität und Entwicklerfreundlichkeit zu verbessern. Meta strebt unter anderem höhere Flexibilität und niedrigere KI-Infrastrukturkosten an, indem TPUs als ernsthafte Alternative zu GPU-Lösungen etabliert werden.

Analysten sehen darin einen potenziellen Wendepunkt im KI-Infrastrukturmarkt: Wenn TPUs für PyTorch-Workloads attraktiv werden, könnten sich die bisherigen Dominanzverhältnisse zugunsten von Google verschieben und die Abhängigkeit von Nvidia-GPUs sinken. Diese Entwicklung könnte langfristig Entwicklungskosten senken und AI-Unternehmen mehr Auswahl bei Hardware-Investitionen bieten.

SK

Nach oben