Eine interessante Wette auf die KI-Zukunft
Der aktuelle Boom an der Börse hat im Grunde nur zwei Buchstaben: KI. OpenAI machte im letzten Herbst den Anfang, als es Ende November 2022 ChatGPT an den Start brachte. Das Programm erfreute sich sogleich einer großen Beliebtheit und löste eine Art KI-Wettrüsten aus.
Neben ChatGPT sind inzwischen auch Bard von Google, Claude von Anthropic und seit kurzem auch Liama-2 von Meta für die Öffentlichkeit verfügbar geworden. Weitere Anwendungen dürften in Kürze folgen, denn auch Apple soll angeblich an einem geheimen KI-Projekt arbeiten.
Kleine Ursache, große Wirkung
Hinter ChatGPT und den anderen Anwendungen steht als neue Technologie ein großes Sprachmodell, kurz LLM genannt. LLMs können inzwischen Codes schreiben, Inhalte erstellen, analysieren, zusammenfassen, übersetzen und vieles mehr. Die Fülle der Anwendungen wird in den nächsten Jahren noch weiter steigen, sodass LLMs in Zukunft in allen Branchen jede erdenkliche Computeraufgabe automatisieren werden.
Die Anwendungsmöglichkeiten reichen dabei von der Kundenbetreuung, der Datenanalyse über das Erstellung von Inhalten bis hin zum Rechtswesen und zur Buchhaltung. Prinzipiell sind die Anwendungsmöglichkeiten unbegrenzt und so wundert es nicht, dass Sequoia Capital, ein Unternehmen, das von einigen als das GOAT-Risikokapitalunternehmen angesehen wird, erklärt, dass fast alle seine Portfoliounternehmen derzeit daran arbeiten, LLMs in ihre Produkte zu integrieren.
Damit ist klar, in welche Richtung die Reise gehen wird. Nicht nur die Technologie an sich wird in einem atemberaubenden Tempo weiterentwickelt. Wir sind gleichzeitig auch Zeugen eines jener seltenen technologischen Durchbrüche, die die Arbeitsweise der Welt in kurzer Zeit massiv verändern werden. Die Produktivitätsgewinne werden extrem sein und eine starke und disruptive Kraft entfalten.
Für HIVE Digital Technologies ist der wachsende Bedarf an GPUs eine riesige Chance
Große Sprachmodelle erfordern allerdings auch eine große Anzahl von GPUs zum Trainieren (Erstellen) und Inferenzieren (Ausführen). So gab Sam Altman, der CEO von OpenAI, an, dass das Training von GPT-4 über 100 Millionen Dollar gekostet hat, wobei Zehntausende von Nvidia-GPUs in leistungsstarken Servern zum Einsatz kamen. Das ist ein hoher Aufwand, um lediglich ein einziges Modell zu trainieren und im Mai 2023 berichtete Sam Altman einer Gruppe von Entwicklern, dass die Entwicklung neuer ChatGPT-Modelle langsamer vorangehe, weil nicht genügend GPUs zur Verfügung stehen.
Auch Elon Musk hat kürzlich angekündigt, dass Tesla eine Milliarde Dollar ausgeben wird, um einen eigenen Supercomputer zu bauen. Dieser Schritt erschien dem Tesla-Gründer notwendig, weil sein Unternehmen nicht genug Nvidia-Chips bekommen konnte. HIVE Digital Technologies ist eines der wenigen Unternehmen, die von diesem Mangel profitieren können, denn HIVEs neue Strategie sieht vor, dass man den KI-Forschern das zur Verfügung stellen wird, was ihnen augenblicklich so dringend fehlt: eine Fülle von GPU-Einheiten und damit eine extrem große Rechenkapazität.
HIVE Digital Technologies verfügt in seinen Rechenzentren derzeit über eine GPU-Flotte von 38.000 Nvidia-GPUs. Sie setzt sich zusammen aus, 4.000+ Nvidia A40 mit 48 GB RAM, über 400 Nvidia RTX A6000 mit 48 GB RAM, weiteren 12.000+ Nvidia RTX A5000 mit 24 GB RAM und last but not least 20.000+ Nvidia RTX A4000 mit 16 GB RAM.
Diese Grafikprozessoren, insbesondere die A40s und A6000s, eignen sich hervorragend für die modernen KI- und HPC-Arbeitslasten. Aus diesem Grund ist verständlich, warum HIVE Digital Technologies derzeit mit Nachdruck die Software- und Hardware-Infrastruktur aufbaut, die zur Optimierung dieser leistungsstarken Grafikkarten erforderlich ist.
Schon im vierten Quartal des Jahres sollen die Vorbereitungen abgeschlossen sein. Danach könnte die Vermietung dieser Einheiten starten und der Rubel im großen Stil rollen.