Vor etwa 100 Jahren führte der österreichische Wirtschaftswissenschaftler Joseph Schumpeter die Idee der "kreativen Zerstörung" ein, die beschreibt, wie Innovationen und neue Technologien veraltete ersetzen und überflüssig machen. Es handelt sich um einen fortlaufenden Prozess, der die Wirtschaft ständig umgestaltet und den Schwerpunkt auf die innovationsgetriebene wirtschaftliche Entwicklung und das Wachstum legt, was zur Demontage oder Umwandlung alter Industrien und Wirtschaftsstrukturen und zur Schaffung neuer führt.
Manchmal handelt es sich um langsame Veränderungen, wie z. B. der Übergang von der Bahn zum Auto und zum Flugzeug. Manchmal kommen sie aber auch in mehreren Etappen auf einmal. Das war der Fall bei ChatGPT und jetzt bei DeepSeek, einem Disruptor, der die globalen KI-Märkte aufrüttelt und eine heftige Debatte über die Zukunft großer Sprachmodelle, die Kosten und die Akzeptanz von KI auslöst. Und wieder einmal beschleunigt er den Prozess der kreativen Zerstörung mit halsbrecherischer Geschwindigkeit.
Bildnachweis: Die Reise des DeepSeek-Chefs vom Mathefreak zum globalen Disruptor © Rachel Mendelson/WSJ, Getty Images
In jedem Fall ist jedoch der Erfolg jeder kreativen Zerstörung von einer anderen, grundlegenderen "Allzwecktechnologie" abhängig. Dies ist bei jeder transformativen Innovation der Fall, die einmal in einer Generation auftaucht und verschiedene Aspekte der Gesellschaft tiefgreifend verändert. Die Beispiele reichen von Smartphones über Computer und das Internet bis hin zu Elektrizität und Dampfkraft, die etwas weiter zurückreichen.
Künstliche Intelligenz (KI) ist auf dem besten Weg, die nächste derartige Technologie zu werden, mit weitreichenden Auswirkungen auf unser tägliches Leben. Um erfolgreich zu sein, muss sie sich jedoch auf eine Reihe dieser Allzwecktechnologien stützen. In diesem Fall auf eine flexible und widerstandsfähige Dateninfrastruktur.
Und dann ist da natürlich noch der menschliche Aspekt zu berücksichtigen. Das Hauptproblem besteht darin, dass wir in der IT-Branche nicht immer gut darin sind, proaktiv über die Auswirkungen eines solchen Wandels nachzudenken. Wir verlassen uns oft auf frühere Erfahrungen und Fähigkeiten und haben Schwierigkeiten, uns vorzustellen, dass sich die Dinge so schnell ändern. Vor allem, wenn dies mit Risiken und Unsicherheiten verbunden ist. Deshalb fällt es vielen von uns so schwer, sich das Tempo der künstlichen Intelligenz vorzustellen und vor allem die Anforderungen an die Dateninfrastruktur, die für die Arbeitslasten erforderlich ist, die sie unmittelbar nach sich ziehen wird.
Zum Glück können wir uns absichern.
Hybrid Cloud deckt den Tisch für KI
Durch den Einsatz eines Hybrid Cloud-Ansatzes für die Infrastruktur können wir bei Korrekturen an unseren Geschäftsmodellen, bei der Bewertung von Kosten und bei Entscheidungen darüber, wie KI-Technologien unseren Wettbewerbsvorteil ausbauen können, "schnell vorwärts scheitern" .
Werfen wir also einen tieferen Blick darauf, wie ein Hybrid Cloud-Infrastrukturansatz zahlreiche strategische Vorteile für Unternehmen bietet, die KI einsetzen:
- Skalierbarkeit und Flexibilität: Hybride Cloud-Umgebungen ermöglichen es Unternehmen, KI-Workloads effizient zu skalieren. Public Cloud-Dienste können ressourcenintensive Aufgaben wie das Training großer Datensätze bewältigen, während Private Clouds sensible Daten und Anwendungen verarbeiten, die eine strenge Compliance erfordern, insbesondere über geografische Regionen und Grenzen hinweg.
- Kosteneffizienz: Die Einrichtung und Pflege der Infrastruktur für umfangreiche KI-Projekte kann kostspielig sein. Hybrid Cloud-Modelle ermöglichen es Unternehmen, ihre Ausgaben zu optimieren, indem sie Public Cloud-Ressourcen auf einer Pay-as-you-go-Basis nutzen und so erhebliche Vorabinvestitionen vermeiden. Dies ist besonders wichtig, wenn Unternehmen experimentieren und neue Richtungen einschlagen.
- Verbessertes Datenmanagement: Eine robuste Datenspeicherung und -verwaltung ist für den Erfolg von KI unerlässlich. Hybrid Cloud-Lösungen bieten umfassende Funktionen zum Datenmanagement, die sicherstellen, dass Daten in verschiedenen Umgebungen effizient gespeichert, verarbeitet und abgerufen werden können. Sie müssen jedoch die Flexibilität haben, Arbeitslasten in Echtzeit zu migrieren und gleichzeitig die Datensouveränität zu behalten.
- Sicherheit und Compliance: Hybrid Clouds bieten einen sicheren Rahmen für die Verwaltung sensibler Daten. Private Clouds können zur Einhaltung gesetzlicher Vorschriften verwendet werden und bieten fortschrittliche Optionen für Sicherheit, DR und Geschäftskontinuität. Public Clouds bieten zwar die Flexibilität, weniger sensible Arbeitslasten zu bewältigen, aber beide nutzen den Zugang zu großen Sprachmodellen (LLMs).
- Optimierung der Ressourcen: Für KI-Projekte wird oft spezielle Hardware wie GPUs oder TPUs benötigt. Die Hybrid Cloud ermöglicht es Unternehmen, auf diese Ressourcen nach Bedarf zuzugreifen, ihre Nutzung zu optimieren und die mit dem Kauf und der Wartung solcher Hardware verbundenen Kosten zu senken. Dies ist besonders wichtig, wenn Unternehmen experimentieren und neue Innovationen in KI-Architekturen nutzen, um sich einen wirtschaftlichen Vorteil zu verschaffen, z. B. verstärkendes Lernen, Mixture-of-Experts (MoE)-Modelle, Multi-Head Latent Attention, Destillationstechniken usw.
- Innovation und Agilität: Mit der Hybrid Cloud können Unternehmen schnell mit neuen KI-Technologien und -Lösungen experimentieren, ohne durch die bestehende Infrastruktur eingeschränkt zu sein. Dies fördert die Innovation und ermöglicht eine schnelle Anpassung an wechselnde Marktanforderungen. Einer von vielen Gründen, warum wir bei Hitachi Vantara gesehen haben, dass Unternehmen mehrere Hybrid Cloud-Umgebungen über VMware, Azure, Red Hat OpenShift, Google und so weiter einsetzen, um ihre KI-gesteuerte Kundenerfahrung zu unterstützen und gleichzeitig die Betriebskosten zu senken.
Auf dem Red Hat Summit 2024 (und wahrscheinlich auch wieder 2025) wurde beispielsweise ein großer Schwerpunkt auf die Demokratisierung von KI/ML-Modellen gelegt. Neben Schulungs- und Entwicklungstools mit Innovationen im Bereich Open Source, die die Hybrid-Cloud vorantreiben (80 % der OpenShift KI-Kunden), Automatisierung und der Einführung neuer Tools, z. B. Red Hats kürzliche Übernahme von Neural Magic (eine weitere vom MIT entwickelte Technologie), um die Entwicklung von KI der nächsten Generation viel schneller und zu geringeren Kosten zu ermöglichen. Tatsächlich wechseln viele Kunden nicht nur aus Kostengründen von VMware zur OpenShift-Virtualisierung, sondern auch, weil sie bei der Entwicklung ihrer Umgebung mehr Spielraum für Anpassungen haben als bei VMware. Klassische kreative Zerstörung bei der Arbeit, Leute!
Bereitstellung von Workloads zur Skalierung von KI in der Hybrid Cloud - flexibel und in Ihrem eigenen Tempo
Das ist ein wichtiger Grund, warum wir die Hitachi Vantara-Lösung für die Integration mit Red Hat OpenShift und Ansible anbieten - damit Kunden die Leistung optimieren und die Betriebskosten durch Automatisierung senken können, während sie mit ihrer KI-Hybrid-Cloud-Infrastruktur experimentieren und diese skalieren. Dies gibt Unternehmen große Flexibilität und Vertrauen, damit sie die oben genannten Vorteile einer Hybrid Cloud-Infrastruktur nutzen können.
Red Hat OpenShift-Virtualisierung mit Hitachi Converged, Storage Operations & Data Services für moderne Anwendungen
Das Kostenmodell von DeepSeek (unter Verwendung der quelloffenen MIT-MoE-Architektur) zeigt, dass groß angelegte Inferenzmodelle zu deutlich niedrigeren Kosten als bei den großen Technologiekonzernen wirtschaftlich zugänglich sind. Dies ermöglicht es kleineren Entwicklern von KI-Anwendungen, schnell und wettbewerbsfähig auf den Markt zu kommen. Wieder einmal ist dies kreative Zerstörung in Aktion.
Einige Experten, wie Dr. Yonggang Wen von der Nanyang Technological University (NTU) in Singapur, sagen auch voraus, dass KI-gesteuerte Datenzentren (AIDC) für die digitale Wirtschaft von zentraler Bedeutung sein werden. In der Vergangenheit hat die Trainingsphase von KI-Modellen mehr Ressourcen in Anspruch genommen als die Inferenzphase. Dieser Trend ändert sich nun, da groß angelegte Inferenzanwendungen, wie Empfehlungssysteme und generative KI, die Trainingsphase in Bezug auf den Rechen- und Energiebedarf übertreffen.
Dies wird Prognosen nur noch beschleunigen, die darauf hindeuten, dass sich die Verteilung der Workloads für Training und Inferenz von einem Verhältnis von 80:20 im Jahr 2023 auf 20:80 im Jahr 2028 entwickeln wird, wobei für 2025 ein Gleichgewicht von 50:50 erwartet wird.
Das Kostenmodell von DeepSeek muss natürlich noch gründlich evaluiert werden. Da Wettbewerber in Nordamerika und Europa jedoch bereits damit beginnen, die Methoden von DeepSeek zu kopieren, kann sich die Lage dramatisch ändern, sobald die globalen Bedenken hinsichtlich Datenschutz und Sicherheit nachlassen. Ab 2025 wird dann eine universelle KI-Technologie alles antreiben.
Die Kraft der globalen, branchenübergreifenden Erfahrung
Das Schöne an der Arbeit bei Hitachi ist, dass wir Zugang zu einer breiten Palette von Informationen aus allen wichtigen Branchen weltweit haben. Das gibt uns eine perfekte Ausgangsposition, um unseren Kunden zu helfen, diesen Trend frühzeitig zu nutzen.
Dazu gehören über 570 verschiedene Unternehmen innerhalb der Hitachi-Familie, wie Hitachi Energy, Rail, Automotive Systems, F&E-Labore und mehr. Darüber hinaus haben wir Zugang zu Fortune-500-, 2000- und mittelgroßen Unternehmen. So erhalten wir Einblicke in ein breites Spektrum von Daten- und Infrastrukturanforderungen, um die richtige Lösung bereitzustellen, die mit dem Wachstum unserer Kunden im Bereich KI Schritt hält.
Mit Hitachi iQ setzen wir KI in unseren Produkten ein, um eine intelligente Infrastruktur bereitzustellen, die für Industrieunternehmen und zukunftsorientierte Firmen entwickelt wurde. Das ermöglicht es Organisationen, Prozesse zu rationalisieren, Einblicke zu gewinnen und Innovationen voranzutreiben, und positioniert sie an der Spitze des KI-Fortschritts.
Da wir alle schnell daran arbeiten, dem Tempo der KI-getriebenen kreativen Zerstörung einen Schritt voraus zu sein, ist es wichtig, mit Partnern wie Hitachi Vantara zusammenzuarbeiten, die nicht nur die sich entwickelnde KI-Landschaft verstehen, sondern auch über umfassende Erfahrungen mit Hybrid Cloud-Infrastrukturen verfügen, die in Ihrer Branche, Ihrer geografischen Präsenz und Ihrem Wachstumstempo eingesetzt werden, unabhängig von Ihrer Größe.
Wir haben noch Einiges mehr über die Bedeutung der Hybrid-Cloud für den Erfolg mit KI sprechen, insbesondere bei der Unterstützung von Multi-Cloud-Umgebungen (Red Hat OpenShift, Microsoft Azure, Google Anthos usw.). Wenn Sie bis dahin mehr darüber erfahren möchten, wie wir Sie bei Ihrer Hybrid-Cloud-KI-Reise unterstützen können, wenden Sie sich an Ihren Hitachi Vantara-Ansprechpartner.
Lesen Sie weiter
- Video: Nutzen Sie Ihre leistungsstarke Hybrid Cloud
- Lösungsprofil: Erschließen Sie das Geschäftspotenzial mit AI Discovery Service für Hitachi iQ
- Referenzarchitektur: Beschleunigen Sie Ihre KI-Reise mit Red Hat AI und NVIDIA mit Hitachi UCP und der VSP One
- Kundengeschichte: Ehrgeiziges Wachstum, unterstützt von der skalierbaren, sicheren und nachhaltigen Hitachi VSP One Block
- Datenblatt: Hitachi iQ, Hitachis End-to-End-Lösungspaket für KI/ML-Workloads in Unternehmen
- Video: Hitachi iQ - KI-Lösungs-Stack für Unternehmens-Workloads
- Blog: Entfesseln Sie die Kraft der Automatisierung mit den VSP One Block Storage-Modulen für Red Hat Ansible
Liam Yu
Liam Yu ist Senior Product Marketing Manager, Data Management, bei Hitachi Vantara.