Was ist Automatische Preiskalkulation mit KI? — Definition und Funktionsweise
Stellen Sie sich vor: Ihr Vertriebsteam sitzt vor Excel-Tabellen, kopiert Preise aus ERP-Auszügen, vergleicht manuell Konkurrenzangebote und kalkuliert individuell jeden Auftrag — häufig unter Zeitdruck und mit Unsicherheit über den optimalen Preis. Dieser Alltag kostet Leads, Margen und Nerven.
Automatische Preiskalkulation mit KI bezeichnet ein technisches System, das Preise für Produkte oder Dienstleistungen auf Basis strukturierter Daten, Regeln und maschineller Lernmodelle automatisch berechnet und vorschlägt. Ziel ist ein skalierbarer, nachvollziehbarer Prozess, der operative Arbeit reduziert und gleichzeitig wirtschaftlichere Entscheidungen ermöglicht.
Technische Kernelemente — in Kürze
- Datenbasis: Historische Verkaufsdaten, Kostenstrukturen, Bestände, Lead Times, Kampagnen, Wettbewerberpreise, Saisonalität.
- Feature-Engineering: Ableitung von Merkmalen wie Preiselastizität, Deckungsbeiträge, Absatzprognosen, Promotions-Effekte.
- Modelle: Zeitreihenmodelle (z. B. Prophet), Gradient-Boosting-Bäume (XGBoost/LightGBM) für strukturierte Vorhersagen, neuronale Netze für komplexe Muster; LLMs zur Generierung verständlicher Preisbegründungen.
- Orchestrierung: Workflows, die Datenverarbeitung, Modelltraining, Auslieferung und Monitoring automatisieren — z. B. n8n-Workflows.
- API-Schicht: Echtzeit-Vorhersagen über REST/GraphQL-Endpoints, Anbindung an ERP/Shop/CRM.
Technisch funktioniert das in zwei Ebenen: Offline-Training (Modelle werden regelmäßig mit aggregierten historischen Daten trainiert und bewertet) und Online-Scoring (neue Anfragen werden sofort mit dem aktuellen Modell bewertet und ein Preisvorschlag zurückgegeben). Regelbasierte Logik sorgt für Constraints (Mindestmargen, rechtliche Vorgaben) und Human-in-the-loop erlaubt Freigaben bei Ausnahmefällen.
Für wen lohnt sich Automatische Preiskalkulation mit KI? — Branchen und Anwendungsfälle
Die Lösung ist branchenübergreifend relevant, besonders wertstiftend ist sie für KMU mit folgenden Eigenschaften:
- Hohe Variantenvielfalt (Produktkonfigurationen, individuelle Angebote)
- Häufige Preisentscheidungen (tägliche Angebote, Online-Preise)
- Volatile Nachfrage oder starker Wettbewerbsdruck
- Fehlende oder aufwändige manuelle Preiskontrollen
Konkrete Branchenbeispiele:
- Handel / E‑Commerce: Dynamische Preisanpassung nach Nachfrage, Lagerbestand und Konkurrenzpreisen.
- Produktion / Maschinenbau: Angebotskalkulation auf Basis von Stücklisten, Fertigungszeiten und Lieferantenpreisen.
- Dienstleister (IT, Beratung, Bau): Stundensätze, Projektangebote und Paketpreise unter Berücksichtigung von Auslastung und Deadlines.
Mini-Beispiele (fiktiv)
- Tischlerei Bergmann (fiktiv): Berechnet Angebotspreise individuell pro Auftrag unter Berücksichtigung von Materialkosten, Produktionskapazität und Lieferzeit. Ergebnis: 10 % höhere Durchschnittsmarge bei stabiler Abschlussrate.
- Online‑Shop Lumen (fiktiv): Passt Preise stündlich an Lagerbestand, Warenkorbabbruchraten und Wettbewerbspreise an. Ergebnis: 7 % Umsatzsteigerung und weniger Überbestände.
- Dienstleistungsbetrieb (fiktiv): Automatisiert Paketpreise für Serviceangebote, berücksichtigt Terminverfügbarkeit und Personalressourcen. Ergebnis: 20 % weniger manuelle Kalkulationszeit.
So funktioniert die technische Umsetzung — Schritt für Schritt
-
Initiale Analyse und Datenaufnahme
Ziel: Identifikation relevanter Datenquellen (ERP-Export, CRM, E‑Commerce-DB, Excel, PIM, Logistik). Ergebnis ist ein Datenkatalog mit Qualitätseinschätzung. Typische Probleme: fehlende Historie, inkonsistente SKUs, unterschiedliche Währungen.
-
Prototyp (Pilot)
Aufsetzen eines MVP: Datenextraktion, Feature-Engineering, ein initiales Modell (z. B. LightGBM), API für Score-Requests und ein n8n-Workflow zur Orchestrierung. Ziel: Schnell messbare KPI-Verbesserungen (Zeit pro Angebot, durchschnittliche Marge).
-
Datenaufbereitung & Feature-Engineering
Schritte: Normalisierung, Kategorisierung, Zeitreihen-Features (Lag, Rolling Mean), externe Daten (Währung, Rohstoffpreise, Konkurrenzpreise via Scraping). Speicherung in einer relationalen Datenbank oder Data Lake; Option: Feature Store für Reproduzierbarkeit.
-
Modelltraining & Validierung
Modelle werden mit Cross‑Validation, Backtesting und Szenariotests validiert. Methoden: Zeitreihenmodelle für Absatzprognosen, Gradient-Boosting für Preisempfehlungen, evtl. Bayesianische Modelle für Unsicherheitsabschätzung. Modell-Metriken: MAE/RMSE für Forecasts, Business-Metriken wie Margenabweichung und Conversion-Impact.
-
Orchestrierung & Schnittstellen
n8n-Workflows übernehmen: regelmäßiges Data-Pulling aus ERP/DB, Trigger für Retraining, Aufruf von Training-Jobs (z. B. auf einem Docker-Container oder in einer CI/CD-Pipeline), Deployment der Modelle und Bereitstellung der Scoring-API. Die Scoring-API liefert neben dem Preis Vorschlagsgründe (Feature-Impacts) zur Nachvollziehbarkeit.
-
Regelwerk & Human-in-the-loop
Parallele Regel-Engine sorgt für rechtliche und geschäftliche Constraints: Mindestpreise, Kundenrabatte, Volumenrabatte. Ausnahmen werden via Dashboard an Sachbearbeiter zur Freigabe gereicht.
-
Monitoring & Continuous Improvement
Tracking von KPIs: angenommene Angebote, realisierte Gewinnmargen, Abweichungen gegenüber empfohlenen Preisen. Alerts bei Drift; automatisierte Retrainings, wenn Performance sinkt.
n8n-konkretes Beispiel eines Workflows
- Trigger: Zeitplan oder Webhook bei neuem Angebotsrequest.
- Node 1: HTTP Request — Daten aus ERP/CRM abrufen.
- Node 2: Function — Feature-Encoding und Validierung.
- Node 3: HTTP Request — Scoring-API des Modells (lokaler Python-Service oder Cloud) aufrufen.
- Node 4: Switch — Prüft Regeln (Mindestmarge). Bei Ausnahme: Notifikation an Vertriebsleiter; sonst Ergebnis zurück an Vertriebssystem und optional an E‑Mail/Chat.
- Node 5: Log — speichern von Input/Output für Monitoring.
Tools und Technologien im Überblick (Auswahl)
- Datenintegration: n8n, REST/GraphQL-APIs, SFTP, Datenbanken (PostgreSQL, MySQL), CSV-Import
- Storage & Feature Store: Relationale DB, Data Lake (S3), Feature Store (einfache Implementierung oder dediziert)
- Modellierung: Python (pandas, scikit-learn, XGBoost/LightGBM), Prophet/ARIMA für Zeitreihen, PyTorch/TensorFlow bei Bedarf
- Orchestrierung & Automatisierung: n8n für Integrationen und Trigger, ggf. Airflow für komplexe ML-Pipelines
- APIs & Auslieferung: FastAPI/Flask für Scoring-APIs, Auth via API-Keys/OAuth, Webhooks
- Erklärbarkeit & Assistenz: SHAP/feature-importance, LLMs (z. B. OpenAI-APIs) zur Generierung verständlicher Erläuterungen
- Monitoring & Logging: Prometheus, Grafana, ELK-Stack; per-Request-Logging in DB
Anmerkung zu OpenAI & LLMs: Große Sprachmodelle eignen sich gut zur Formulierung von Preisbegründungen, automatisierten Kundenkommunikationen und zur Normalisierung unstrukturierter Daten (z. B. aus Angebots-E-Mails). Sie sollten nicht die alleinige Entscheidungsquelle für Preise sein, sondern erklärende Schicht über den numerischen Modellen.
Messbare Ergebnisse: Was Unternehmen berichten
Aus Pilotprojekten und Kundenprojekten (KMU) zeigen sich typische Effekte:
- Zeitersparnis: Angebotsbearbeitung reduziert sich oft um 40–70 % durch automatische Erstkalkulation und Vorbefüllung von Angeboten.
- Kostensenkung: Weniger Nachverhandlungen und niedrigere operative Kosten durch weniger manuelle Kalkulationen — typische Einsparungen 10–30 % der Prozesskosten.
- Qualitätssteigerung: Konsistentere Margen, weniger Preisfehler, bessere Dokumentation der Preisentscheidungen.
- Umsatz- und Margeneffekte: Je nach Branche Umsatzsteigerungen 3–10 % oder Margenverbesserungen 1–5 %, wenn Preise datengetrieben optimiert und Promotions besser getargetet werden.
Wichtig: Erfolg ist messbar nur mit geeigneten KPIs (Angebotsdauer, Win-Rate, durchschnittliche Marge, Retouren/Preisanpassungen). A/B-Tests unterstützen valide Aussagen über Business-Impact.
Kosten und Amortisation — eine ehrliche Einschätzung
Die Kosten variieren stark nach Umfang, Datenlage und Integrationsbedarf. Typische Budgetklassen für KMU:
- Pilot / PoC: 10.000–30.000 EUR — umfasst Analyse, MVP mit n8n-Workflow, erstes Modell, Scoring-API und Dashboard.
- Produktiv-Rollout (klein/mittel): 30.000–100.000 EUR — Anbindung an ERP/Shop, Robustheitsfeatures, SLA für API, Monitoring, Nutzerinterfaces.
- Skalierung / Enterprise‑Level: 100.000–250.000+ EUR — erweiterte Data‑Ops, Multi‑Model-Deployment, fortlaufendes Monitoring und Team-Support.
Amortisationsrechnung — vereinfachtes Beispiel:
- Jährliche Einsparung durch Zeitersparnis in Vertrieb & Kalkulation: 50.000 EUR
- Zusätzliche Margenverbesserung (konservativ): +20.000 EUR
- Einmalige Implementierungskosten (Pilot→Produktiv): 50.000 EUR
Payback ≈ 0,7 Jahre — also unter einem Jahr im günstigen Szenario. Realistisch sind 6–18 Monate abhängig von Datenzugang und internen Freigabeprozessen.
Wichtig: Laufende Kosten (Hosting, API-Kosten für LLMs, Wartung) einplanen — typischerweise 10–25 % der einmaligen Implementierungskosten pro Jahr.
Goma-IT — Ihr Partner für Automatische Preiskalkulation mit KI
Goma-IT aus Bludenz, Vorarlberg, begleitet KMU in AT, CH und DE remote bei der Einführung datengetriebener Preisprozesse. Wir arbeiten pragmatisch, technisch fundiert und mit klaren Schritten:
- Initialworkshop & Datencheck (remote oder vor Ort in Bludenz)
- Prototyp in 4–8 Wochen (n8n‑Orchestrierung, erstes Modell, Scoring-API)
- Produktivsetzung, Anbindung an ERP/Shop/CRM und Monitoring
- Schulung, Dokumentation und Betriebssupport
Unsere Herangehensweise: keine Blackbox‑Versprechen, sondern messbare KPIs, nachvollziehbare Modelle (SHAP/Regeln) und pragmatische Automatisierungs-Workflows (n8n). Wenn Sie möchten, führen wir einen kurzen Pre-Check durch und erstellen ein Budget- und Amortisationsmodell für Ihren Use-Case.
Häufige Fragen zu Automatische Preiskalkulation mit KI
1. Wie zuverlässig sind die automatischen Preisempfehlungen?
Die Zuverlässigkeit hängt von Datenqualität und Modellvalidierung ab. In gut vorbereiteten Szenarien liefern Modelle stabile Vorschläge; für kritische Angebote empfehlen wir Human‑in‑the‑loop mit Schwellen für automatische Freigabe.
2. Wie werden rechtliche Vorgaben und Rabatte berücksichtigt?
Regeln und Constraints sind Teil der Architektur: Eine Rule‑Engine filtert Vorgaben (Mindestpreis, Vertragsrabatte, branchenspezifische Regeln) vor oder nach dem Modellvorschlag, so dass gesetzliche und unternehmensspezifische Vorgaben eingehalten werden.
3. Braucht man Cloud-Services oder funktioniert das On‑Premise?
Beides ist möglich. Für sensible Daten bevorzugen manche Kunden On‑Premise-Modelle. Cloud-Hosting hingegen vereinfacht Skalierung und Wartung. Goma-IT berät je nach Sicherheitsanforderungen und Budget.
4. Wie lange dauert ein Pilotprojekt?
Ein MVP ist in der Regel in 4–8 Wochen umsetzbar (Datenzugang vorausgesetzt). Ein vollständiger Rollout hängt von Integrationen und regulatorischen Prüfungen ab und dauert meist 3–6 Monate.
5. Welche Rolle spielen LLMs in der Preiskalkulation?
LLMs unterstützen vor allem bei der Textverarbeitung (z. B. Parsing unstrukturierter Angebote), der Generierung von Preisbegründungen und als Assistenz für Vertriebsmitarbeitende. Entscheidungslogik und numerische Preisberechnung sollten auf robusten ML-/Statistikmodellen basieren.
Wenn Sie möchten, erstellen wir für Ihr Unternehmen eine Kurzbewertung (Datencheck + Quick-Win-Plan), damit Sie innerhalb von vier Wochen erste konkrete Erkenntnisse haben.
Kontakt: Goma-IT, Bludenz (Vorarlberg) — Remote für AT / CH / DE. Wir arbeiten technisch, lösungsorientiert und pragmatisch am Schnittpunkt von n8n‑Integration, ML‑Modellen und API‑Automatisierung.