
Mit KI zur effizienten Value Analysis – Daten intelligent nutzen, Potenziale gezielt heben
In vielen technischen Bereichen in Unternehmen entstehen im Laufe der Jahre unzählige Varianten, Versionen und ähnliche Bauteile. Oft fehlt der Überblick darüber, wo unnötige Komplexität vorhanden ist und wo sich eine Vereinheitlichung lohnt. Genau hier setzt die Value Analysis als bewährte Methode im Value Engineering an: Sie zielt darauf ab, den Kundennutzen mit möglichst geringem Ressourceneinsatz zu realisieren. Datengetriebene Ansätze mit künstlicher Intelligenz heben dieses Vorgehen auf ein neues Niveau.
Erstmals ermöglichen Large Language Models (LLMs) verschiedenste Datenquellen zusammenzuführen und intelligent auszuwerten. Was früher nur mit immensem Aufwand machbar war, kann heute automatisiert und in deutlich kürzerer Zeit erfolgen.
Zunächst werden die relevanten Datenquellen identifiziert und in ein einheitliches Format überführt. Die größte Herausforderung besteht oft in der Fragmentierung, da Informationen historisch gewachsen und über zahlreiche Systeme verteilt sind. Mithilfe eines einheitlichen Identifiers entsteht ein zentrales Wissensdokument, das als Masterdatenbasis dient.
Gerade bei unstrukturierten Informationen, zum Beispiel in Zeichnungen, PDFs oder Bildern, entfalten LLMs ihre Stärken. Sie können Inhalte analysieren, extrahieren und als neue Spalten oder Attribute im Masterdokument abbilden. Da LLMs besonders gut mit Text umgehen, ist es sinnvoll, möglichst viele Informationen in sprachlicher Form verfügbar zu machen. Große Mengen an Dateien lassen sich über API-Schnittstellen automatisiert verarbeiten, sodass ein strukturierter, zentraler Datensatz mit hoher Informationsdichte entsteht.
In der anschließenden Analysephase können bei kleineren Datensätzen LLMs direkt zum Einsatz kommen, um Muster, Redundanzen oder funktionale Ähnlichkeiten zu erkennen. Im Gegensatz zu klassischen Tools erfassen sie auch semantische Gemeinsamkeiten, selbst wenn Begriffe, Schreibweisen oder technische Beschreibungen variieren. So entsteht eine fundierte Basis für Entscheidungen, bei denen es nicht um exakte Duplikate, sondern um funktionale Gleichteile geht. Für größere Datenmengen nutzt TIM Consulting projektspezifische Methoden zur Reduktion und Vorstrukturierung.
Hier fließen zudem Erfahrungen aus unserer Trendanalyse-Software CumulusAI ein, insbesondere im Bereich des Clusterings. Die Kombination aus klassischer Data Science und den Möglichkeiten der LLMs eröffnet völlig neue Perspektiven. Ein strukturierter Prozess verwandelt verstreute Informationen und unstrukturierte Daten in eine verwertbare Entscheidungsgrundlage – und das ist entscheidend für eine erfolgreiche Value Analysis. Nur wer versteht, wo Varianten funktional überflüssig sind, kann sie gezielt reduzieren.
So lassen sich nicht nur Einsparungen im Einkauf und in der Fertigung erzielen, sondern auch strategische Leitlinien für das Engineering ableiten. Empfehlungen können direkt aus den Daten gewonnen und unternehmensweit geteilt werden. Auf diese Weise erhalten Vertrieb, Entwicklung und Beschaffung eine gemeinsame, faktenbasierte Entscheidungsgrundlage.
Ist ein solches System erst einmal etabliert, kann es auch für andere Fragestellungen angepasst und erweitert werden. Dadurch wird aus einem klassischen Optimierungsprojekt ein dynamischer, lernender Analyseprozess.
Bild: KI-generiertes Bild, erstellt mit ChatGPT

M.Sc. Marius Heil
Consultant bei TIM Consulting
DAS KÖNNTE SIE NOCH INTERESSIEREN …
Zölle, Machtspiele, Marktchancen – Was Unternehmen jetzt strategisch wissen müssen
Trump eskaliert den Handelskonflikt. Was das für Europas Unternehmen bedeutet – und wie man jetzt strategisch richtig reagiert.
Neuer Wein in neuen Schläuchen: Warum Diversifikation durch Innovation neue Denkmuster braucht
Kognitive Verzerrungen können zu risikoreduzierenden Entscheidungen in Innovationsprozessen führen und so Diversifikation verhindern.
Das Glück ist mit den KI-Tüchtigen
Was Innovation mit Glück zu tun hat und wie man es ein bisschen zwingen kann.