Generative KI in der Industrie

Der Einsatz von KI in der Industrie schreitet rasant voran, doch die Integration generativer KI birgt komplexe Herausforderungen. In diesem Blog teilen wir unsere Erfahrungen bei der Entwicklung eines GenAI-gestützten Assistenten. Ziel ist es, praxisnahe Einblicke in Herausforderungen und Lösungen zu bieten, damit Du ähnliche Projekte erfolgreich umsetzen kannst. Wir beleuchten die spezifischen Herausforderungen beim Einsatz generativer KI und präsentieren praxisnahe Lösungen, die Dich direkt unterstützen.

Menschliche und kulturelle Herausforderungen

  • Angst vor dem Unbekannten

    Künstliche Intelligenz begegnet uns heute in nahezu allen Lebensbereichen – vom Smartphone bis zur Telefonhotline. Dennoch bestehen oft Bedenken und Ängste gegenüber dieser Technologie und können damit eine Implementierung erschweren. Häufig dominieren Worst-Case-Gedanken, insbesondere hinsichtlich des Datenflusses, obwohl diese in der Praxis meist unbegründet sind.

  • Utopische Vorstellungen

    Gleichzeitig trifft man oft auf die Annahme, dass KI uneingeschränkt leistungsfähig sei und alle Probleme lösen könne. Diese überhöhten Erwartungen beruhen meist auf Einzelfallbeispielen, die den tatsächlichen Stand der Technik oder die spezifischen Herausforderungen eines eigenen Anwendungsfalls nicht widerspiegeln.

Bewältigung der Herausforderungen

  • Beschränkung auf das Wesentliche

    Lasse Dich nicht zu sehr von der Meinung “KI ist zu allem fähig” treiben, sondern achte immer auf einen klar definierten Use Case, der dediziert verfolgt wird, um optimale Ergebnisse zu erzielen. Bei diesem Use Case sollte man aber auch keine Angst haben, Innovationen und Technologien auszuprobieren, oder die Gefahr in jedem kleinsten Detail zu suchen.

Technische Herausforderungen

  • Volatilität und unzureichende Dokumentation der Technologien

    Das GenAI-Feld entwickelt sich extrem rasant und ein Framework, das heute noch topaktuell ist, kann morgen schon durch ein anderes und gleichzeitig besseres abgelöst werden. Zusätzlich kommt zu dem sich wandelnden Umfeld dazu, dass die aktuell besten Frameworks aus Entwicklungssicht gerade mal wenige Jahre alt sind. Dies führt dazu, dass nur begrenzte Dokumentation verfügbar ist und bedeutet gerade für die Implementierung speziell zugeschnittener Use Cases eine Herausforderung. Die Funktionen sind zwar an sich verfügbar, aber das Zusammenspiel muss oftmals noch selbst experimentell herausgefunden werden und führt zu verlängerten Entwicklungszyklen.

  • Fehlende Feedback-Schleifen

    Es besteht eine potentielle Gefahr für die Akzeptanz des neuen Tools, wenn die Endanwender zu spät im Testing involviert werden. Um das Tool optimal an die tägliche Arbeit anzupassen, sind eine klare Beschreibung der Nutzeraufgaben und regelmäßiges Feedback zu den aktuellen Fähigkeiten der KI entscheidend. Ohne dieses Feedback lassen sich LLM-Prompts nicht präzise genug formulieren, um optimale Ergebnisse für die Nutzer zu erzielen.

  • UI-Änderungen basierend auf Nutzeranforderungen

    Die Anforderungen, die an eine Benutzeroberfläche gestellt werden, sind für jeden Anwendungsfall und Nutzer verschieden, weshalb es eine besondere Herausforderung ist, zu eruieren, welche Bedürfnisse und Funktionalitäten eine Oberfläche meistern muss. Dabei sind vor allem Punkte wie Speicherung von Chats, Chatinteraktionen sowie auch Personalisierung der Oberfläche relevant.

  • Bewertung und Evaluation von GenAI-Ausgaben

    Eine sehr große Herausforderung, die im Thema KI und besonders im GenAI-Bereich auftritt, ist, dass die Modelle grundsätzlich einen Output generieren und keinen Fehler liefern. Das bedeutet, ein durchlaufender Code kann auch Halluzinationen hervorbringen, sodass die Antwort keinen Bezug mehr zur Frage beinhaltet. Deswegen ist es wichtig, die Ausgaben auch auf ihre Korrektheit explizit in Zusammenarbeit mit dem Fachbereich zu prüfen.

  • Zu hohe Erwartungen an Funktionsumfang und Geschwindigkeit

    In Kundenprojekten werden Projektteams häufig mit der Erwartungshaltung konfrontiert, die Performance eines eigens gehosteten KI-Modells müsse direkt mit der eines frei verfügbaren ChatGPTs mithalten. Aussagen wie: „ChatGPT bietet diese Funktion, warum ist sie in unserem System nicht verfügbar?“ sind nicht ungewöhnlich. Für viele Nutzer ist ChatGPT ein Maßstab, da sie dessen Performance gewöhnt sind. Hier liegt eine der wesentlichen Herausforderungen: Den Stakeholdern verständlich zu machen, dass die umfassenden Funktionen und Optimierungen von ChatGPT nicht innerhalb weniger Tage vollständig auf ihren Use Case zugeschnitten werden können. Dieses Verständnis fehlt häufig, da viele Nutzer die zugrunde liegende Komplexität eines zugeschnittenen Systems unterschätzen.

Bewältigung der Herausforderungen

  • Prüfung von technologischer Aktualität und Kompatibilität

    Stelle sicher, dass die eingesetzten Technologien langfristig kompatibel und zukunftssicher sind. Dafür lohnt es auch, sich die Zeit zu nehmen, um kleine Tests zwischen den einzelnen Tools durchzuführen. Denn eine spätere Migration von einem Tool zu einem neuen wird deutlich mehr Zeit benötigen, als eine fundierte Evaluation der Technologien. Des Weiteren sollte man bei Folgeprojekten immer in Betracht ziehen, Anpassungen in den Technologien vorzunehmen, um auf den sich schnell verändernden Toolmarkt reagieren zu können. Motiviere außerdem Deine Kollegen zu Eigenrecherchen, damit Euer Team die größtmögliche Toolbreite abdecken kann.

  • Einsatz von agilen Entwicklungsmethoden

    Iterative Ansätze sorgen für Flexibilität, um neue Erkenntnisse schnell in das Projekt einfließen zu lassen. Sorge daher für ein offenes Arbeitsklima, welches konstruktive Kritik zulässt und so die inkrementelle Produktverbesserung fördert.

  • Einbindung der Endnutzer von Beginn an

    Feedback in regelmäßigen Entwicklungszyklen kann Fehlerquellen frühzeitig aufdecken. Durch dieses Feedback erhält man direkt aus der Fachabteilung handfeste Punkte, an denen noch gefeilt werden kann, um aus einem guten Tool ein exzellentes zu realisieren und dem Nutzer in perfekter Weise zur Hand zu gehen. Dies gilt sowohl für die Funktionalität der KI Anwendung als auch für die UI. Denn letztendlich ist der Anwender die Person, die mit der UI zurechtkommen und bei der die UI ein positives Gefühl bei ihrer Verwendung vermittelt muss.

    • Metriken zur Überprüfung der Ausgaben

      Um das Thema Halluzinationen der GenAI-Modelle aufzudecken, benötigt es Maßnahmen, die diese Probleme und das Feedback direkt an die Entwickler weiterleiten. Hierfür existieren diverse Evaluationsmetriken, die auf Basis des Use Case selektiert werden. Die Metriken und Maßnahmen sollten sich für den Use Case eignen und speziell auf diesen ausgerichtet sein. Beispielsweise gibt es die Möglichkeit, durch eine zweite GenAI-Instanz eine automatische Beurteilung der Antwort generieren zu lassen oder Testfragen zu nutzen, bei denen die Antwort bereits bekannt ist und auf inhaltliche Übereinstimmung überprüft werden kann.

    • Frühzeitiges Erwartungsmanagement und iterative Verbesserungen

      Eine zentrale Maßnahme zur Lösung dieser Herausforderung besteht darin, den Stakeholdern frühzeitig zu erläutern, weshalb eine eigens gehostete Applikation anfangs möglicherweise nicht die gleiche Qualität oder den gleichen Funktionsumfang wie das zugrunde liegende ChatGPT erreicht. Gerade in den ersten Iterationen und Feedbackschleifen können die generierten Ergebnisse weniger präzise sein. Entscheidend ist hier ein klar kommuniziertes Erwartungsmanagement: Der Kunde muss wissen, dass die Qualität der generierten Antworten in hohem Maße von den hinterlegten Prompt-Anweisungen abhängt. Diese Anweisungen müssen in mehreren Iterationsstufen immer weiter optimiert werden, bis das Tool exakt auf den Anwendungsfall abgestimmt ist. Sobald das Modell jedoch die Phase des Prompt-Finetunings erreicht, kann es ChatGPT sogar übertreffen. Der Grund dafür liegt in der zielgerichteten Anpassung der Prompts, die von menschlichen Anwendern normalerweise nicht so detailliert formuliert werden könnten. Diese Präzision verhindert fehlerhafte oder unklare Antworten und sorgt letztlich dafür, dass das System perfekt auf den jeweiligen Use Case und den erwarteten Output ausgerichtet ist.

    Zukunftsaussicht

    Die Implementierung von GenAI-Systemen eröffnet enormes Potenzial, bringt jedoch auch Herausforderungen mit sich, insbesondere im Umgang mit neuer Technologie und der Integration der Endnutzer. Ein erfolgreiches Projekt erfordert ein fachkundiges, technikaffines Team, agile Arbeitsmethoden und eine enge Zusammenarbeit mit den Nutzern. Durch den gezielten Einsatz von generativer KI lassen sich Prozesse effizienter gestalten und erheblichen Mehrwert für komplexe industrielle Anwendungen schaffen. Dabei ermöglicht die Technologie nicht nur eine signifikante Zeitersparnis, sondern schafft auch Freiräume für Mitarbeiter, um sich auf anspruchsvollere Aufgaben zu konzentrieren. Das Ergebnis: optimierte Prozesse, überzeugendere Resultate und zufriedene Kunden. Mit den richtigen Technologien, gut eingebundenen Endanwendern und einer klaren Strukturierung ist generative AI bereit, neue Wertschöpfungsketten und Use Cases zu schaffen!

    Nimm gerne Kontakt zu uns auf!

    Du möchtest selbst die Möglichkeiten von generativer KI in Deinem Unternehmen implementieren oder möchtest weitere Informationen zu Herausforderungen und deren Bewältigung erhalten? Dann freue ich mich über den Austausch mit Dir!

    Matthias Wurdig
    Director Data & AI

    Diese Themen könnten Dich auch interessieren

    Process Mining: Von Daten zur nachhaltigen Entscheidung

    Erfahre, wie Process Mining datenbasierte Entscheidungen ermöglicht, um Nachhaltigkeit zu fördern und Prozesse effizienter zu gestalten.

    Generative KI im industriellen Einsatz: So meistern Sie die größten Herausforderungen

    In unserem Artikel beleuchten wir, wie Unternehmen die größten Herausforderungen durch Generative KI im industriellen Einsatz meistern.
    Symbolbild für Domainlifecycles Code Generator (DCG)

    Ein Generativer KI-Assistent für Domain-Driven Design

    Hier erfährst Du, wie der KI-Assistent für Domain-Driven Design „Domainlifecycles Code Generator“ funktioniert und entwickelt wurde.
    Schmuckbild zum Thema Chatbot Assistenten durch Nutzung von LLMs und Retrieval Augmented Generation

    Chatbot Assistenten durch Nutzung von LLMs und Retrieval Augmented Generation

    Wir erläutern die Architektur eines Chatbots, der durch die Nutzung von LLMs und Retrieval Augmented Generation schnell und effizient auf Fragen antwortet.
    Eine Person analysiert eine Datenauswertung auf dem Bildschirm eines MacBooks.

    Revolution in Real-time Analytics: Wie Tiered Storage Dateneffizienz transformiert

    Wir zeigen Dir, welche Auswirkungen Speicherstrategien in Bezug auf Real-time Analytics haben.
    Das Bild zeigt eine Person, die auf einem Bildschirm auf eine Datenauswertung zeigt. An einem Tisch sitzen fünf Personen, die der Auswertung zuhören.

    CoffAI – Welche Architektur bietet wie viel Echtzeit?

    Wir erläutern, wie Vibrationsdaten mittels Sensoren, Machine Learning und einer Cloud-Infrastruktur verarbeitet, klassifiziert und visualisiert werden.
    Das Bild zeigt zwei Personen, die sich eine Datenauswertung auf einem Laptop ansehen.

    Warum Unternehmen heute Real-time Analytics benötigen

    Wir erläutern, wie Vibrationsdaten mittels Sensoren, Machine Learning und einer Cloud-Infrastruktur verarbeitet, klassifiziert und visualisiert werden.
    Flugzeug im Hangar - Visualisierung eines Artikels zum Thema Vom Cockpit zur Commandline

    Vom Cockpit zur Commandline, Teil 1: Piloten

    Ein Blick über den eigenen Tellerrand, der uns zeigt, wie wir Software noch besser entwickeln können.
    Mensch auf Fahrrad als Illustration zum Thema Kombination von maschinellem Lernen, IoT und Radfahren für eine kostengünstige Infrastrukturüberwachung

    Kombination von maschinellem Lernen, IoT und Radfahren für eine kostengünstige Infrastrukturüberwachung

    Hier erfährst Du, wie wir mithilfe von Sensordatenerfassung, die Straßenzustände von Radwegen klassifizieren.