Alle Insights

Die GenAI Lernreise mit dem Kunden unternehmen

Premkumar Balasubramanian Premkumar Balasubramanian
CTO, Hitachi Digital Services

18. Dezember 2023


Dies ist die dritte Geschichte in der "Unsere GenAI Reise"-Serie.

Eine der unausgesprochenen Wahrheiten über generative KI (GenAI) ist, dass alle dabei sind, dazuzulernen. Vielleicht liegt das daran, dass das Innovationstempo so hoch ist, dass die Lernkurve immer weiter ansteigt.

Betrachten Sie auch die jüngsten Fortschritte, einschließlich der Pläne von Microsoft, Chat GTP-4 Turbo in Copilots zu integrieren, um "komplexe und längere Aufgaben" zu bewältigen; Googles Einführung der Gemini-Suite der Modelle Ultra, Pro und Nano, die alles von High-End-Hardware bis hin zu Mobiltelefonen unterstützen; und sogar Apples Veröffentlichung auf GitHub seines ML-Explore (MLX) -Array-Frameworks für maschinelles Lernen, das für Apple-Silicon entwickelt wurde.

Das Tempo kann manchmal schwindelerregend erscheinen. Wir bei Hitachi Digital Services arbeiten zusammen mit unserer Muttergesellschaft Hitachi Ltd. seit Jahrzehnten in der KI und sogar wir lernen jeden Tag neue Dinge über die Fähigkeiten, Chancen und potenziellen Risiken von GenAI.

Wenn Ihnen jemand von einem Cloud-Anbieter, einem Systemhersteller, einem Softwareentwickler, etc. sagt, er habe alles im Griff, sollten Sie vorsichtig sein. Die Technologie entwickelt sich so schnell weiter, dass nur wenige an einem bestimmten Tag alle Antworten kennen. Wenn er Ihnen jedoch zuhört und sich verpflichtet, mit Ihnen zusammenzuarbeiten, um Ihre Probleme zu lösen und Ihre Ziele mit Hilfe von GenAI zu erreichen, ist er eine Überlegung wert.

Ich bin mit diesem Bereich und mit der GenAI- und KI-Entwicklung bestens vertraut. In meiner Rolle als Chief Technology Officer von Hitachi Digital Services arbeite ich direkt mit großen globalen Kunden zusammen, um ihnen zu helfen, Herausforderungen zu meistern und Geschäftsziele durch digitale Lösungen zu erreichen. Wie meine Kollegen in den beiden vorangegangenen Geschichten dargelegt haben, ist es nicht überraschend, dass das Aufkommen von GenAI und KI einige der größten Chancen für Unternehmen mit sich bringt, aber auch einige erhebliche Risiken. Es ist von entscheidender Bedeutung, sich mit der Technologie auseinanderzusetzen, aber auf eine möglichst durchdachte Weise.

In meiner Branche entwickeln wir gerne Lösungen und beginnen, wo immer möglich, damit, bestimmte Aspekte davon als Vorlage für die schnelle Wiederverwendung bei anderen, vergleichbaren Kundenherausforderungen zu verwenden. Aber GenAI hat diese Philosophie grundlegend verändert, vor allem weil diese Art von Lösungen für bestimmte Workloads, für bestimmte Kunden in bestimmten Branchen und mit sehr spezifischen Parametern entwickelt wurden. Mit anderen Worten, nur sehr wenige dieser „Schneeflocken“-artigen Lösungen lassen sich in Pakete verpacken und wiederverwenden.

Ein Muster, das sich jedoch mit der raschen Einführung von GenAI herauskristallisiert hat, ist der Grad des Kundenverständnisses. Ich habe die versierten, die weniger versierten und die nicht versierten, aber eifrigen Unternehmen erkannt.

Interessanterweise ist es oft nicht die Herausforderung oder Wahl, die diese drei Kategorien trennt, sondern der Schweregrad oder die Skala.

Treffen der kritischen Entscheidungen

Zum Beispiel muss jede Organisation frühzeitig die grundlegenden Entscheidungen verstehen, die sie mit GenAI erwarten.

Welche Engine sollte ich verwenden? Ist eine lokale Lösung für mich besser als eine Cloud-Lösung? (Und wenn ich in die Cloud gehe, laufe ich dann Gefahr, eine Geisel des Cloud-Anbieters zu werden?)

Dann wendet sich die Diskussion dem eigentlichen Kern der KI zu und der Frage, welches große Sprachmodell (LLM) eingesetzt werden sollte. Kleinere Modelle wie LLaMA 2 werden mit 7 Milliarden bis 70 Milliarden Parametern trainiert und eignen sich gut für den lokalen Einsatz oder in der Cloud, während GPT-3 und GPT-4 von OpenAI mit 175 Milliarden bis 1 Billionen Parametern trainiert werden und in der Regel besser mit der in der Cloud verfügbaren Rechenleistung genutzt werden können.

Wie ich in einer kürzlich erschienenen Geschichte dargelegt habe, sind unter anderem die Trainingshäufigkeit und die Trainingsdaten zu berücksichtigen, wenn es um die Frage geht, ob ein lokales LLM und eine lokale Präsenz vor Ort vorteilhafter sind als die Nutzung einer öffentlichen Cloud.

Zum Beispiel, wie meine Kollegin bei Hitachi Vantara, Bharti Patel, kürzlich schrieb, führte ihre GenAI-Arbeit im Unternehmen dazu, dass sie ihr eigenes System vor Ort bauten, um ihre Arbeit mit LLaMA 2 zu unterstützen. Einer der Gründe für den Umzug, sagte sie, war eine bessere Kontrolle der Daten und der Verwaltung des LLM.

Der Blickwinkel des Kunden

Dies sind nur einige der vielfältigen Themen und Entscheidungen, mit denen Kunden jeden Tag ringen. Wie ich oben angedeutet habe, sind beispielsweise zunehmend Sicherheit, Datenschutz und Probleme im Zusammenhang mit Voreingenommenheit in Modellen von entscheidender Bedeutung. Eine globale Bank, mit der wir zusammengearbeitet haben, wollte das Risiko ausschließen, dass ihre GenAI-Bots Antworten/Ergebnisse produzieren oder auf Anfragen mit unparlamentarischer oder beleidigender Sprache antworten.

Wir haben uns an die Arbeit gemacht und mehrere führende Technologien direkt aus dem Prompt-Engineering, d.h. dem Schreiben von natürlichsprachlichen Textanweisungen für GenAI-Modelle, auf die verantwortliche KI (d.h. Toxizitätsanalyse, Halluzinationskontrolle, etc.) angewendet. Insbesondere haben wir Retrieval Augmented Generation (RAG) angewandt, eine KI-Technik, die Informationen aus externen Datensätzen kombiniert und es KI-Modellen ermöglicht, relevante Informationen aus einer Wissensquelle abzurufen und sie zusammen mit dem generierten Text einzubinden.

Auf der Grundlage dieser Technologien und Tools haben wir ein Programm namens AI Compass entwickelt, das ein KI-Modell anhand verschiedener Parameter wie Stimmung, Toxizität, potenzieller Jailbreaks, Verweigerungen, etc. misst. Dies ist äußerst wichtig, wenn Unternehmen von Proof-of-Concepts zu produktiven GenAI-Anwendungsfällen übergehen.

Und es war mehr als angemessen für die Bank, weil sie mehr als nur eine Toxizitätsanalyse brauchte – sie musste sicherstellen, dass alle Standorte konform und konsistent in ihren Antworten über die oben genannten mehreren Dimensionen hinweg waren.

Fertigungsmöglichkeiten

Manchmal glauben Kunden, sie bräuchten ein Tool oder eine Technologie, obwohl sich nach einer Prüfung herausstellt, dass ein anderer Ansatz viel effektiver ist. In einem anderen Fall von GenAI wollte ein führender Hersteller von Wohnprodukten die Technologie nutzen, um sein extrem kompliziertes Preissystem besser zu automatisieren. Für Uneingeweihte ist die Preisgestaltung bei vielen Renovierungsprodukten mit Abhängigkeiten verbunden. Von der Maßanfertigung bis hin zu den unzähligen Materialarten, die zur Verfügung stehen, von der Regionalität bis hin zur Saisonalität - jedes vorgeschlagene Teil bringt eine Reihe von Herausforderungen mit sich, die es zu bewältigen gilt, bevor man einen fairen Preis empfehlen kann. Das Unternehmen suchte nach einer Möglichkeit, diesen Prozess zu automatisieren. Und die Wahrheit war, dass sie eine Menge Daten hatten, die sie nutzen konnten, eine Menge historischer Daten, aber sie brauchten eine Möglichkeit, schnell Antworten zu generieren, um mehr Verkäufe abzuschließen.

Nachdem wir die Herausforderung mit dem Unternehmen besprochen hatten, wurde uns allen klar, dass dies nicht nur ein Anwendungsfall für GenAI war. Vielmehr handelte es sich um eine großartige Gelegenheit für traditionelleres Machine Learning und präskriptive Automatisierung, die dann mit GenAI für eine einfachere Nutzung durch die Kunden verpackt werden konnte. Also haben wir uns gemeinsam mit dem Unternehmen auf die Reise begeben, wobei meine Gruppe bei Hitachi Digital Services mit Datenwissenschaftlern und Ingenieuren von Hitachi America Limited zusammenarbeitet, um den Umfang und die Ausführung zu planen.

Wenn unsere Arbeit im Bereich KI und GenAI uns etwas gelehrt hat, dann, dass wir alle gemeinsam an der Sache dran sind, mit unseren Kunden und Partnern und innerhalb unserer eigenen Gruppen. Wir lernen alle gemeinsam schnell und kommen voran. Unser Executive Chairman, Gajen Kandiah, hat es in einem Beitrag vor nicht allzu langer Zeit am besten ausgedrückt, als er die Leser ermutigte, nicht zu zögern, sich mit GenAI zu beschäftigen. Beginnen Sie Projekte, experimentieren Sie, aber tun Sie dies mit Vorsicht und Bedacht.

Verwandte Themen

·       Verfolgung unserer ersten GenAI-Schritte

·       Wir stellen unsere GenAI-Reise vor

·       Ein generativer Ansatz für KI


Premkumar Balasubramanian

Premkumar Balasubramanian

Prem leads innovation for Hitachi Digital Services, with responsibility for strategy and support of GTM pursuits. Including repeatable customer solutions and thought leadership focused on cloud, data, IoT and GenAI..He previously held a similar position at Hitachi Vantara.