mindsquare.de durchsuchen

KI-Halluzinationen erkennen, vermeiden und sicher damit umgehen

Philipp Schurr
29. August 2025
KI Halluzinationen

Künstliche Intelligenz (KI) fasziniert und unterstützt uns – bis sie plötzlich Dinge erfindet, die es nicht gibt. Diese sogenannten Halluzinationen werfen Fragen auf: Wie zuverlässig und vertrauenswürdig ist KI wirklich und wo liegen die Grenzen ihrer Fähigkeiten? Dieser Artikel zeigt, wie und warum KI mitunter Dinge erfindet, und welche Strategien helfen, solche Halluzinationen zu erkennen und mit ihnen umzugehen.

Was sind KI-Halluzinationen?

KI-Halluzinationen sind ein problematisches, aber auch erstaunliches Phänomen bei der Anwendung von Künstlicher Intelligenz. Dabei erzeugt die KI Ergebnisse, die auf den ersten Blick plausibel und korrekt wirken. In Wirklichkeit sind sie jedoch inhaltlich falsch, erfunden oder aus dem Zusammenhang gerissen. Diese Fehler entstehen oft dann, wenn das KI-Modell sich auf unzuverlässige oder unvollständige Trainingsdaten bezieht oder es Entwicklungs- oder Lernfehler aufweist.

Ähnlich wie bei Halluzinationen bei Menschen erscheinen die halluzinierten Inhalte der KI zwar mehr oder weniger stimmig, sind jedoch nicht wahr. Diese Halluzinationen können sich in unterschiedlichen Formen zeigen – von kleinen sachlichen Fehlern bis hin zu komplett erfundenen, unbegründeten Aussagen.

Besonders problematisch sind KI-Halluzinationen in sensiblen Bereichen wie der Medizin oder der Rechtswissenschaft, wo falsche oder erfundene Informationen gravierende Folgen haben können.

E-Book Use Cases KI in Unternehmen

NEU: E-Book: 40 Use Cases von KI in Unternehmen

In diesem kostenlosen E-Book finden Sie konkrete Beispiele, wie KI in den verschiedensten Abteilungen eines Unternehmens Mehrwert schaffen kann.

Wahrscheinlichkeit für das Auftreten von KI-Halluzinationen bei verschiedenen Modellarten

Die Wahrscheinlichkeit für das Auftreten von KI-Halluzinationen variiert je nach Art und Komplexität der eingesetzten KI von Modell zu Modell. Während einige Modellarten sehr anfällig sind, gelten andere als sehr sicher und bereits weit entwickelt.

  • Sprachmodelle (LLMs) wie GPT, Claude, Gemini
    • Sehr hoch – sie generieren Sprache auf Basis von Wahrscheinlichkeiten, ohne echtes Weltwissen oder Faktenprüfung.
  • Bildgenerierungsmodelle (z.DALL·E, Midjourney)
    • Hoch – können visuell glaubwürdige, aber faktisch falsche Bilder erzeugen.
  • Sprach-zu-Text / Übersetzer
    • Mittel – falsche Bedeutungszuweisungen oder erfundene Begriffe sind möglich.
  • Recommendation Engines
    • Gering bis mittel – wenn nicht gut trainiert, können sie irrelevante oder riskante Vorschläge machen.
  • Symbolische KIs / Reasoning Engines
    • Gering – arbeiten regelbasiert, sind daher nachvollziehbar, aber auch weniger flexibel. Fehler entstehen eher durch falsche Regeln.

Arten von KI-Halluzinationen

KI-Halluzinationen können sich in verschiedenen Formen manifestieren, die je nach Kontext und Schweregrad variieren. Einige der häufigsten Arten sind:

  • Satzwidersprüche: Hierbei generiert ein KI-Modell einen Satz, der einem vorherigen Satz inhaltlich widerspricht. Solche Widersprüche können auch innerhalb eines Satzes vorkommen.
  • Prompt-Widersprüche: Tritt auf, wenn die generierte Antwort dem ursprünglichen Prompt widerspricht. Ein Beispiel wäre, wenn ein Modell aufgefordert wird, eine Geburtstagskarte für eine Freundin zu schreiben, aber stattdessen „Alles Gute zum Geburtstag, Mama und Papa!“ ausgibt.
  • Faktische Widersprüche: Bei dieser Art von Halluzination werden zufällige, irrelevante oder falsche Informationen als wahr dargestellt. Ein Beispiel wäre, wenn ein Modell behauptet, „Michael Jackson, Madonna, Albert Einstein“ seien berühmte Musiker der 80er Jahre.
  • Fabrizierte Inhalte: Bezieht sich auf vollständig erfundene Informationen, die vom Modell generiert und als wahr dargestellt werden. Ein Beispiel wäre, wenn ein Modell einen nicht existierenden wissenschaftlichen Artikel zitiert oder eine fiktive Person nennt.
  • Unsinnige Ausgaben: Hierbei handelt es sich um Ausgaben, die keinen Sinn ergeben oder zusammenhanglos sind. Ein Beispiel wäre, wenn ein Modell auf eine Anfrage nach einem Rezept antwortet: „Geben Sie Tomatensauce in den Kuchenteig.“

Das Verständnis dieser verschiedenen Arten von Halluzinationen ist entscheidend, um die Zuverlässigkeit von KI-Systemen zu bewerten und geeignete Maßnahmen zur Minderung dieser Fehler zu entwickeln.

Beispiele für KI-Halluzinationen großer KI-Modelle

Die folgenden Beispiele aus der Praxis zeigen, wie KI-Modelle in der Vergangenheit falsche oder ungenaue Antworten gegeben haben und welche Konsequenzen KI-Halluzinationen haben können.

Google Chatbot Bard (Februar 2023)

Der Chatbot Bard behauptete fälschlicherweise, dass das James Webb Space Telescope (JWST) die ersten Bilder eines Exoplaneten außerhalb unseres Sonnensystems aufgenommen habe. Diese Information war jedoch unzutreffend, da die ersten Bilder eines Exoplaneten bereits 2004 vom Very Large Telescope (VLT) der Europäischen Südsternwarte gemacht wurden. Die falsche Behauptung von Bard wurde später von einer Nachrichtenagentur als Fehler entlarvt.

Meta Galactica (Ende 2022)

Galactica, ein Open-Source-LLM von Meta, generierte ungenaue, verdächtige und voreingenommene Ergebnisse. Zum Beispiel erfand es Zitate und falsche Forschungsergebnisse, als es nach wissenschaftlichen Informationen gefragt wurde. Nach viel Kritik nahm Meta das System nur drei Tage nach der Veröffentlichung offline.

ChatGPT (2023–2024)

ChatGPT war in mehrere Halluzinationskontroversen verwickelt. Es gab Berichte, dass der Chatbot falsche und potenziell verleumderische Aussagen machte, zwischen Sprachen wechselte oder in Schleifen stecken blieb. Im Februar 2024 halluzinierte ChatGPT regelmäßig Informationen über Personen, was Datenschutzbedenken aufwarf. Aufgrund dieser Vorfälle gab es rechtliche Beschwerden und Berichterstattung über die Fehler des Systems, während OpenAI an Korrekturen arbeitete.

Auswirkungen von KI-Halluzinationen

KI-Halluzinationen können verschiedene, mehr oder weniger gravierende, Konsequenzen haben.

Verwirrung und Fehlinformationen

KI-Modelle, die fehlerhafte oder erfundene Informationen liefern, tragen zur Verbreitung von Fehlinformationen bei. Solche Halluzinationen können das Vertrauen und die Glaubwürdigkeit in KI-Systeme untergraben und beeinträchtigen. Das führt zu einer verzerrten Wahrnehmung der Realität und erschwert die Unterscheidung zwischen wahrer und falscher Information.

Verbreitung von Fake News

Die Fähigkeit von KI, realistisch klingende, aber falsche Inhalte zu erzeugen, erleichtert die absichtliche Erstellung und Verbreitung von Fake News. Solche Desinformation kann sich schnell über soziale Medien verbreiten und die öffentliche Meinung beeinflussen. Ein Beispiel hierfür ist die Verwendung von KI-generierten Deepfakes in politischen Kampagnen, die falsche Informationen verbreiten und das Vertrauen in demokratische Prozesse erschüttern können.

Sicherheitsrisiken

KI-Halluzinationen stellen auch ein Sicherheitsrisiko dar. Durch die Generierung von falschen oder irreführenden Informationen können Angreifer KI-Systeme nutzen, um Phishing-Angriffe durchzuführen, Identitäten zu fälschen oder Sicherheitslücken auszunutzen. Dies kann zu finanziellen Verlusten, Datenschutzverletzungen und Schäden an der Infrastruktur führen.

Wirtschaftliche und rufschädigende Auswirkungen

Unternehmen, die auf KI-Systeme angewiesen sind, können durch Halluzinationen erhebliche wirtschaftliche Schäden erleiden. Fehlerhafte Informationen können zu falschen Geschäftsentscheidungen, Compliance-Verstößen und rechtlichen Konsequenzen führen.

Ursachen für KI-Halluzinationen: Wieso kommt es überhaupt dazu?

KI-Halluzinationen entstehen durch eine Kombination verschiedener Faktoren, die sowohl mit den Trainingsdaten als auch mit der Modellarchitektur und -verwendung zusammenhängen. Die wichtigsten Ursachen im Überblick:

Unzureichende oder fehlerhafte Trainingsdaten

KI-Modelle lernen aus den Daten, mit denen sie trainiert werden. Sind diese Daten unvollständig, veraltet oder fehlerhaft, kann das Modell falsche oder ungenaue Informationen generieren. Ein Beispiel hierfür ist die unzureichende Repräsentation bestimmter Themen oder Fachgebiete in den Trainingsdaten, was zu Halluzinationen führen kann.

Überanpassung an Trainingsdaten

Overfitting tritt auf, wenn ein Modell zu stark an die Trainingsdaten angepasst wird und dabei die Fähigkeit verliert, auf neue, unbekannte Daten zu generalisieren. Das kann dazu führen, dass das Modell auf neue Anfragen mit ungenauen oder erfundenen Informationen reagiert

Art und Weise der Generierung der Inhalte (Inferenz)

Bei der Inferenz versucht das Modell, die wahrscheinlichste Fortsetzung einer gegebenen Eingabe zu berechnen. Wenn das Modell jedoch auf unsichere oder unvollständige Daten stößt, kann es plausible, aber falsche Informationen generieren. Das liegt daran, dass das Modell oft keine Möglichkeit hat, Unsicherheiten zu erkennen oder zu kommunizieren.

Verzerrung (Bias) in den Trainingsdaten

Wenn die Trainingsdaten systematische Verzerrungen, sogenannte Bias, aufweisen, kann das Modell diese übernehmen und verstärken. Dies führt zu fehlerhaften oder unfairen Ergebnissen, die die Realität nicht korrekt widerspiegeln. Ein Beispiel hierfür ist die Verzerrung in Gesichtserkennungssoftware, die bestimmte demografische Gruppen schlechter erkennt.

Modellkomplexität und -kapazität

Komplexe Modelle mit hoher Kapazität können zwar eine Vielzahl von Mustern in den Daten erkennen, sind jedoch anfälliger für Overfitting und Halluzinationen. Ein zu komplexes Modell kann beginnen, Rauschen oder irrelevante Muster in den Trainingsdaten zu lernen, was zu ungenauen oder erfundenen Ausgaben führt.

Fehlerhafte Modellarchitektur

Fehler in der Architektur des Modells, wie z. B. unzureichende Regularisierung oder fehlerhafte Hyperparameter, können dazu führen, dass das Modell nicht korrekt lernt oder generalisiert. Dadurch können Halluzinationen entstehen, insbesondere wenn das Modell versucht, aus unsicheren oder unvollständigen Daten plausible, aber falsche Informationen zu generieren.

Wie erkennt man KI-Halluzinationen?

Die Erkennung von KI-Halluzinationen erfordert eine kritische Analyse der generierten Inhalte. Eine der wichtigsten Methoden ist die Überprüfung von Fakten und Quellen. Wenn Informationen nicht verifiziert werden können oder von vertrauenswürdigen Quellen abweichen, deutet das oft auf eine Halluzination hin. Auch auf widersprüchliche oder unlogische Aussagen innerhalb eines Textes sollte aufmerksam geachtet werden.

KI-Modelle tendieren außerdem dazu, ihre Antworten mit hoher Selbstsicherheit zu präsentieren, auch wenn diese falsch sind – ein weiteres Warnzeichen. Technische Hilfsmittel wie spezialisierte Tools können ebenfalls helfen, KI-generierte Inhalte zu überprüfen. Besonders in sicherheitsrelevanten Bereichen, wie Medizin oder Finanzen, ist es entscheidend, solche Halluzinationen zu erkennen, um schwerwiegende Konsequenzen zu vermeiden.

Lösungsansätze

Halluzinationen in der Künstlichen Intelligenz sind kein Randproblem, sondern ein praktisches Hindernis im Arbeitsalltag mit KI-Modellen wie großen Sprachmodellen. Unternehmen, die KI einsetzen, stehen daher vor zwei Aufgaben: Erstens, akute Halluzinationen zu erkennen und zu korrigieren, und zweitens, langfristig ihre Entstehung zu verhindern. Gleichzeitig lohnt es sich, das Phänomen nicht nur als Risiko, sondern auch als kreative Chance zu betrachten.

Was tun bei KI-Halluzinationen?

Wenn eine KI falsche Fakten oder erfundene Inhalte präsentiert, muss schnell und gezielt gehandelt werden. Folgende Maßnahmen haben sich in der Praxis bewährt:

  • Retrieval-Augmented Generation (RAG): Die Verbindung von generativen Modellen mit verlässlichen Daten- und Wissensquellen sorgt dafür, dass Antworten präziser, relevanter und nachprüfbarer sind.
  • Automated Reasoning & symbolische Logik: Logische Prüfmechanismen werden eingebaut, um mathematisch sicherzustellen, dass Regeln eingehalten werden.
  • Validierung & menschliche Kontrolle: Fachpersonal sollte eingesetzt werden, um kritische Antworten und logische Unschlüssigkeiten systematisch zu prüfen, bevor sie in sensiblen Kontexten verwendet werden.

Wie kann man KI-Halluzinationen in Zukunft vermeiden?

Für KI-Fehler wie Halluzinationen gilt: Vorbeugen ist besser als korrigieren. Wer Halluzinationen langfristig reduzieren will, setzt auf eine Kombination aus technischer Optimierung und methodischem Vorgehen, um unkontrollierbare Halluzinationen zu vermeiden:

Reinforcement Learning from Human Feedback (RLHF): Durch belohnungsbasiertes Training unterstützt von menschlichem Feedback, lernen Modelle, faktenbasierte und daher korrekte Antworten zu bevorzugen.

Prompt-Engineering & Self-Consistency: Clever formulierte Eingaben und mehrfache Abfragen helfen, Widersprüche früh zu erkennen.

Debattierende Modelle & Plausibilitätschecks: Mehrere KI-Instanzen können Antworten intern gegeneinander abwägen, um die verlässlichste Lösung zu finden.

Algorithmen zur Halluzinationserkennung: Verfahren wie „semantic entropy“ identifizieren fehlerhafte Aussagen automatisch und nahezu in Echtzeit.

Positive Nutzungsmöglichkeiten von halluzinierender KI

So störend Halluzinationen in vielen Kontexten sind – in kreativen Prozessen können sie überraschende Impulse liefern. Manche Unternehmen und Forschungsteams nutzen diese Eigenschaft deshalb gezielt: Halluzinierende Modelle haben bereits neuartige Proteinstrukturen entworfen, die zu medizinischen Innovationen führten.

In der Produktentwicklung entstanden außerdem durch unrealistische Vorschläge fortschrittliche Ideen für Medizingeräte oder Sensorik. Selbst in der Meteorologie und Robotik bringen KI-Halluzinationen wertvolle Erkenntnisse, da sie alternative Denkwege eröffnen, auf die menschliche Experten vielleicht nie gekommen wären.

Webinar Künstliche Intelligenz Grundlagen und Best Practices
Sie möchten gerne mehr zum Thema Künstliche Intelligenz erfahren und wie Ihr Unternehmen davon profitieren kann? In unserem Webinar fassen wir Ihnen die wichtigsten Aspekte zusammen!

Fazit

KI-Halluzinationen sind mehr als nur eine technische Kuriosität. Ihr Auftreten ist ein ernst zu nehmender Faktor für die Zuverlässigkeit und Akzeptanz von Künstlicher Intelligenz. Ob als harmlose und lustige Abweichung oder als gravierender Fehler mit potenziell hohen Folgekosten. Wer KI im Unternehmen einsetzt, muss dieses Phänomen verstehen, erkennen und gezielt darauf reagieren.

Die gute Nachricht: Mit den richtigen Strategien – von der Anbindung an verlässliche Wissensquellen bis hin zu fortschrittlichen Prüfverfahren – lassen sich viele Halluzinationen vermeiden oder zumindest zuverlässig identifizieren. Und wer bereit ist, den Blick zu weiten, kann sogar kreativen Nutzen aus KI-Halluzinationen ziehen.

Unternehmen, die heute in robuste KI-Governance, technische Prävention und kritisches Anwenderwissen investieren, sichern sich nicht nur gegen Risiken ab, sondern schaffen auch die Grundlage dafür, Stärken der KI mutig und verantwortungsvoll auszuschöpfen.

FAQ

Was sind KI-Halluzinationen?

KI-Halluzinationen sind ein Phänomen, bei dem Künstliche Intelligenz Inhalte erzeugt, die zwar überzeugend wirken, jedoch nicht der Realität entsprechen. Diese Abweichungen können in Form von falschen Fakten, erfundenen Details oder unlogischen Aussagen auftreten.

Warum treten KI-Halluzinationen überhaupt auf?

Sie entstehen durch unvollständige oder fehlerhafte Trainingsdaten, Überanpassung an diese Daten (Overfitting) oder durch unsichere Eingaben, die das Modell zu spekulativen Ausgaben verleiten. Auch Verzerrungen (Bias) in den Daten können dazu beitragen.

Wie kann man KI-Halluzinationen erkennen?

Durch kritische Prüfung von Fakten, Vergleich mit vertrauenswürdigen Quellen und Nutzung von Tools zur Halluzinationserkennung. Widersprüchliche oder unlogische Aussagen sind ebenfalls ein Warnsignal.

Was kann man tun, wenn eine KI halluziniert?

Sofortmaßnahmen sind die Validierung durch Fachpersonal, die Nutzung externer Wissensquellen (RAG) und, falls möglich, Anpassung des Modells oder der Eingaben, um das Problem zu beheben.

Wie lassen sich KI-Halluzinationen langfristig vermeiden?

Durch verbessertes Training (z. B. RLHF), gezieltes Prompt-Engineering, Einsatz debattierender Modelle, Algorithmen zur Halluzinationserkennung und eine klare Governance im KI-Einsatz.

Können KI-Halluzinationen auch positiv genutzt werden?

Ja. In der Forschung, im Design und in kreativen Branchen können „kontrollierte Halluzinationen“ neue Ideen und Lösungen hervorbringen, die menschliche Kreativität erweitern.

1

Verwandte Beiträge

Mit dem EU AI Act etabliert die Europäische Union die weltweit erste umfassende Regulierung für Künstliche Intelligenz (KI). Diese Verordnung setzt neue Maßstäbe für die Entwicklung, den Einsatz und die […]
Das Thema KI ist in den meisten Unternehmen noch ein sehr neues. Da ist es ganz normal, dass Missverständnisse über die Einführung und die Arbeit mit Künstlicher Intelligenz entstehen. Ich […]
Das Thema KI kommt in der heutigen Zeit immer häufiger und flächendeckender auf. Doch entgegen der allgemeinen Wahrnehmung hat Künstliche Intelligenz keine Technologie, die erst in den letzten Jahren vorangetrieben […]
Generative KI und populäre Modelle wie GPT sorgen nun schon seit einiger Zeit immer wieder für Furore, denn die Entwicklungen und Veröffentlichungen neuer Features gehen rasant voran. Während diese Tools […]

Beratung und Unterstützung für die Unternehmens-IT

  • Individualentwicklung für SAP und Salesforce
  • SAP S/4HANA-Strategieentwicklung, Einführung, Migration
  • Mobile App Komplettlösungen – von der Idee über die Entwicklung und Einführung bis zum Betrieb, für SAP Fiori und Salesforce Lightning
  • Automatisierung von Prozessen durch Schnittstellen, künstliche Intelligenz (KI) und Robotic Process Automation (RPA)
  • Beratung, Entwicklung, Einführung
  • Formular- und Outputmanagement, E-Rechnung & SAP DRC
  • SAP Archivierung und SAP ILM
  • SAP Basis & Security, Enterprise IT-Security & Datenschutz
  • SAP BI & Analytics
  • Low Code / No Code – Lösungen

Vollumfängliche Implementierungs- und Betriebsunterstützung für führende Softwareprodukte unserer Partnerunternehmen:

Besondere Prozessexzellenz im Bereich Personal / HR

  • Knowhow in Personalprozessen und IT-Technologien verbinden
  • HR-Berater, die IT-ler und Personaler in einer Person sind
  • Beratung zu HR IT Landschafts- & Roadmap sowie HR Software Auswahl
  • Beratung und Entwicklung im SAP HCM, SuccessFactors und der SAP Business Technology Platform
  • HCM for S/4HANA (H4S4) Migration & Support
  • Als Advisory Partner Plattform und Prozessberatung in Workday
  • Mobile Development mit SAP Fiori, SAPUI5, HTML5 und JavaScript
  • Marktführer im Bereich ESS/MSS

Vollumfängliche Implementierungs- und Betriebsunterstützung für führende Softwareprodukte unserer Partnerunternehmen:

Besondere Prozessexzellenz im Bereich Produktion & Logistik

  • Optimierung und Digitalisierung von Produktions- und Logistikprozessen sowie Einkaufs- und Vertriebsprozessen
  • Einführung mobiler Datenerfassung in Produktion, Lager und Instandhaltung
  • Umfassendes Knowhow in den SAP-Modulen LO, MM, SD, WM, PM und CCS/CCM
  • Modul-Beratung & Einführung, Entwicklung individueller (mobiler) Anwendungen
  • Beratung und Entwicklung in der SAP Freischaltungsabwicklung (SAP WCM, eWCM)
  • Optimierung sämtlicher Prozesse im Bereich der nachträglichen Vergütung (Bonus)

Vollumfängliche Implementierungs- und Betriebsunterstützung für führende Softwareprodukte unserer Partnerunternehmen:

Besondere Prozessexzellenz im Bereich Vertrieb & Service

  • Vertriebs- & Service-Prozesse auf Basis von Salesforce
  • Beratung, Einführung und Entwicklung für Salesforce-Lösungen: Sales Cloud, Service Cloud, Marketing Cloud inkl. Account Engagement (ehem. Pardot)
  • Salesforce Customizing: Individuelle Lösungen in Salesforce, u.a. für Chemie-Branche
  • Betriebsunterstützung und Service für Salesforce-Kunden
  • Schnittstellen-Entwicklung, besondere Expertise SAP – Salesforce Integration

Vollumfängliche Implementierungs- und Betriebsunterstützung für führende Softwareprodukte unserer Partnerunternehmen:

msDevSupport

Service / Development Support

  • fester, eingearbeiteter Ansprechpartner als Koordinator
  • kontinuierliche Weiterentwicklung und Digitalisierung Ihres Unternehmens, z.B. Fehlerbehebung, Updates, neue Features implementieren
  • kleinere Entwicklungen realisieren, die kein Projektmanagement erfordern
  • günstige Abrechnungen pro h
  • sehr einfache und schnelle Beauftragung auf Zuruf
  • ständige Verfügbarkeit: (Teil-)Ressourcen geblockt für Sie
  • kurze Reaktionszeiten 2 – 24h
  • Wir halten Wissen vor und stellen Stellvertretung sicher

msSolution

Projekte

  • Projektleitung und Steering inklusive Qualitätssicherung
  • „Wir machen Ihr fachliches Problem zu unserem.“
  • mindsquare steuert IT-Experten selbst
  • Abrechnung pro Tag
  • Längerer Angebots- und Beauftragungsprozess
  • Lieferzeit 6 – 12 Wochen ab Auftragseingang
  • Zum Auftragsende Transition zu einem Service & Support notwendig, um schnell helfen zu können

msPeople

IT-Experten auf Zeit

  • Wir lösen Ihren personellen Engpass, z.B. liefern von IT-Experten für Ihr laufendes Projekt
  • Breites Experten-Netzwerk für praktisch jedes Thema und Budget:
  • interne festangestellte mindsquare Mitarbeiter:innen
  • externe Experten aus unserem Netzwerk von 27.000 Freiberufler:innen aus Deutschland
  • externe Experten im Nearshoring mit derzeit 37 Partnern
  • Verbindliches Buchen der Experten in einem definierten Zeitraum an festen Tagen
  • Ohne Projektleitung und Steering, Sie steuern die Experten
  • Lieferzeit in der Regel 2 – 6 Wochen
  • Nach Auftragsende KEIN Vorhalten von Experten und Knowhow
Kontakt aufnehmen!
Ansprechpartner
Julia Fried Kundenservice