- von Kenrick Cai und Krystal Hu
SAN FRANCISCO, 14. Apr (Reuters) - Alphabet GOOGL.O und Nvidia NVDA.O haben sich prominenten Risikokapitalgebern angeschlossen, um Safe Superintelligence (link) (SSI) zu unterstützen. SSI ist ein Startup, das vom ehemaligen Chefwissenschaftler von OpenAI, Ilya Sutskever, mitbegründet wurde und Monate nach seinem Start schnell zu einem der wertvollsten Startups für künstliche Intelligenz aufgestiegen ist, so eine mit der Angelegenheit vertraute Insider.
Die Finanzierung veranschaulicht das erneute Interesse der großen Technologie- und Infrastrukturanbieter an strategischen Investitionen in Start-ups, die hochmoderne KI entwickeln, die große Mengen an Rechenleistung erfordert. Alphabet, das seine eigenen KI-Modelle hat, kündigte Anfang der Woche einen Deal seiner Cloud-Computing-Sparte an, um SSI Zugang zu Tensor Processing Units (link) (TPUs), seinen hauseigenen KI-Chips, zu verkaufen.
SSI, das Insider zufolge kürzlich in einer von Greenoaks angeführten Finanzierungsrunde mit 32 Milliarden Dollar bewertet wurde, ist eines der profiliertesten Start-ups, die an der Erforschung von KI-Modellen arbeiten, dank Sutskevers hervorragender Erfolgsbilanz bei der Vorhersage der nächsten großen Sache in der KI-Entwicklung.
Wie viele seiner Konkurrenten hat es eine große Nachfrage nach Chips.
Reuters konnte die genauen Bedingungen für die Investition von Alphabet und Nvidia in SSI nicht ermitteln. Sprecher aller drei Unternehmen lehnten eine Stellungnahme ab .
Die beiden Schritte von Alphabets Unternehmens- und Cloud-Abteilung mit hochkarätigen KI-Laboren wie SSI und Anthropic zeigen die sich entwickelnde KI-Hardware-Strategie des Tech-Riesen.
Google hatte die TPUs ursprünglich für den internen Gebrauch reserviert. Die Vereinbarung, SSI-Chips in großen Mengen zu verkaufen, um die KI-Forschung zu unterstützen, ist ein Beispiel für die laufende Strategie des Unternehmens, den Verkauf an externe Kunden auszuweiten, sagte Darren Mowry, ein Managing Director, der für Googles Partnerschaften mit Start-ups zuständig ist, diese Woche in einem Interview mit Reuters.
"Mit diesen grundlegenden Modellbauern nimmt die Anziehungskraft auf uns dramatisch zu", sagte er.
KI-Entwickler haben in der Vergangenheit die Grafikprozessoren von Nvidia bevorzugt , die mehr als 80 Prozent des Marktes für KI-Chips ausmachen.
Doch SSI verwendet für seine KI-Forschung und -Entwicklung bisher hauptsächlich TPUs und keine GPUs, so zwei Insider.
Google bietet sowohl Nvidia-GPUs als auch seine eigenen TPUs über seinen Cloud-Service an. Die eigenen Chips sind für spezielle KI-Aufgaben gedacht und sind effizienter als Allzweck-GPUs. Diese Chips wurden für die Erstellung von KI-Modellen in großem Maßstab verwendet, wie z. B. bei Apple (link) AAPL.O und Anthropic, einem OpenAI-Konkurrenten, der von Google und Amazon AMZN.O mit Milliarden von Dollar finanziert wurde.
Google und Nvidia sehen sich mit Amazon, das seine eigenen konkurrierenden Prozessoren namens Trainium und Inferentia entwickelt, ebenfalls einem Herausforderer gegenüber. Amazon hat (link) bereits im Jahr 2023 angekündigt, dass Anthropic seine Technologie auf diesen Chips entwickeln würde. Der Tech-Riese kündigte (link) im Dezember an, dass Anthropic der erste Kunde sein würde, der einen riesigen Supercomputer mit Hunderttausenden von eigenen Chips nutzen würde.
In der Zwischenzeit nutzt Anthropic weiterhin TPUs für seine KI-Entwicklung und hat die Ausgaben für Googles Chips nicht verringert, so zwei Insider.
Es ist zunehmend üblich, dass große Cloud-Anbieter stark in KI-Startups investieren, die nicht nur grundlegende Modelle entwickeln, sondern auch als wichtige Kunden ihrer Infrastruktur dienen. So haben beispielsweise Amazon und Google beide in Anthropic investiert, während Microsoft MSFT.O in erheblichem Umfang auf OpenAI gesetzt hat. Auch Nvidia hat OpenAI unterstützt, ebenso wie Elon Musks xAI.