Unsere Mission ist es Unternehmen zu unterstützen mit KI zu wachsen.

Die 5 besten KI Tipps für moderne Unternehmen!

22.08.2023
KI Einsatz in Unternehmen

Image by Tung Nguyen from Pixabay

Über den Autor:

Von Danny Gerst

Danny Gerst hat 30 Jahre Erfahrung in der Softwareentwicklung und war für viele Unternehmen tätig. Er verfolgt täglich stundenlang die neuesten Trends und Lösungen, um seinen Kunden stets die effektivsten Strategien zu präsentieren.
Für Unternehmen stellt sich die Frage wo und wie Künstliche Intelligenz (KI), insbesondere Large Language Models (LLMs), in Unternehmen eingesetzt werden könnten. Hier werden fünf mögliche Einsatzgebiete beschrieben.

Es ist unwahrscheinlich, dass Sie den Hype um generative KI, insbesondere um große Sprachmodelle (LLMs) wie ChatGPT, übersehen haben. In den letzten Monaten waren diese Themen überall präsent – von sozialen Medien über Nachrichten bis hin zu alltäglichen Gesprächen. Und wir beginnen gerade erst zu verstehen, zu welchen Leistungen generative KI fähig sein könnte.

Generell bezeichnet generative KI eine Kategorie von maschinellem Lernen (ML), die Inhalte wie Bilder, Musik und Text erzeugen kann, die menschlich erstellten Inhalten stark ähneln. LLMs hingegen sind neuronale Netzwerke mit Milliarden von Parametern, die auf riesigen Textdatenmengen trainiert wurden. Dadurch können sie Sprache verstehen, verarbeiten und generieren, die dem menschlichen Sprechen ähnelt.

Zusammen bieten diese Technologien ein vielfältiges Anwendungsspektrum, das das Potenzial hat, verschiedene Branchen zu verändern und die Qualität der Interaktionen zwischen Menschen und Maschinen zu erhöhen. Geschäftsinhaber und Entscheidungsträger in Unternehmen können durch die Erforschung dieser Anwendungen wertvolle Inspirationen gewinnen, schnelleres Wachstum fördern und durch schnelles Prototyping spürbar verbesserte Ergebnisse erzielen. Ein weiterer Vorteil von generativer KI ist, dass die meisten dieser Anwendungen nur minimale Fachkenntnisse erfordern und keine weitere Modellschulung benötigen.

Ein kurzer Hinweis: Oft wird generative KI ausschließlich mit ChatGPT in Verbindung gebracht. Es gibt jedoch zahlreiche Modelle von anderen Anbietern, wie z.B. Google’s T5, Meta’s Llama, TII’s Falcon und Anthropic’s Claude. Obwohl viele der in diesem Artikel besprochenen Anwendungen ChatGPT von OpenAI verwendet haben, können Sie das zugrundeliegende LLM leicht an Ihr spezifisches Compute-Budget, die Latenz und die nachgelagerte Aufgabe anpassen.

1. Verbindung von KIs mit externen Daten

Künstliche Intelligenz (KI) hat in den letzten Jahren große Fortschritte gemacht, und ein besonders spannendes Gebiet innerhalb der KI sind die großen Sprachmodelle (LLMs). Ein LLM ist eine spezielle Form von KI, die darauf trainiert wurde, menschenähnliche Texte zu generieren. Im Wesentlichen sind LLMs neuronale Netzwerke, die auf großen Mengen von Text trainiert wurden, wodurch sie in der Lage sind, komplexe Sprachanwendungen zu verstehen, zu verarbeiten und auszuführen. Ein bekanntes Beispiel für ein LLM ist ChatGPT.

LLMs zeigen beeindruckende Fähigkeiten bei vielen Aufgaben direkt nach der Inbetriebnahme, z.B. beim Übersetzen und Zusammenfassen, ohne vorherige Anpassungen zu benötigen. Dies liegt daran, dass das Grundmodell auf großen, allgemeinen Datenmengen trainiert wurde. Dennoch kann diese Kompetenz nicht nahtlos auf branchenspezifische Aufgaben übertragen werden, wie beispielsweise Fragen zum Jahresbericht eines Unternehmens. Hier kommt das „Retrieval Augmented Generation“ (RAG) ins Spiel.

RAG ist ein Framework zum Aufbau von LLM-gesteuerten Systemen, die externe Datenquellen nutzen. RAG ermöglicht es einem LLM, auf Daten zuzugreifen, die es während des Vortrainings nicht gesehen hat, die aber notwendig sind, um relevante und genaue Antworten zu liefern. Mit RAG können Sprachmodelle wie ChatGPT bessere Antworten auf branchenspezifische Fragen geben, indem sie ihre Fähigkeiten im Bereich der natürlichen Sprachverarbeitung (NLP) mit externem Wissen kombinieren. Es funktioniert, indem es:

  • Relevante Informationen aus externen Wissensquellen, wie großen Dokumentensammlungen, Datenbanken oder dem Internet, abruft. Die Relevanz basiert auf der semantischen Ähnlichkeit zur Benutzerfrage.
  • Die abgerufenen Informationen zur ursprünglichen Frage hinzufügt und sie an das LLM weiterleitet, um eine informiertere und genauere Antwort zu erhalten.

Dieser Ansatz macht LLMs vielseitiger und nützlicher in verschiedenen Bereichen, einschließlich Fragenbeantwortung und interaktiver Konversation. Beispielsweise nutzt Podurama, eine Podcast-App, ähnliche Techniken für ihre AI-gestützten Empfehlungs-Chatbots.

Auch im Krisenmanagement ist dieser Ansatz wertvoll. PagerDuty, eine SaaS-Plattform für Incident-Response, verwendet LLMs, um Vorfälle zu summieren und mit internen Slack-Daten zu erweitern.

Obwohl RAG komplex erscheinen mag, bietet die LangChain-Bibliothek Entwicklern die notwendigen Werkzeuge. LangChain kann die Leistung des LLM durch Zugriff auf externe Datenquellen verbessern.

In Kombination mit Open-Source-LLMs, wie Llama 2 oder BLOOM, stellt RAG eine starke Architektur dar. Besonders interessant ist, dass LangChain über 120 Integrationen verfügt, was eine nahtlose Funktionalität mit strukturierten Daten, unstrukturierten Inhalten und sogar YouTube-Videos ermöglicht.

2. Verbindung von LLMs mit externen Anwendungen

Ähnlich wie die Nutzung externer Datenquellen können LLMs Verbindungen zu externen Anwendungen herstellen, die auf spezifische Aufgaben zugeschnitten sind. Dies ist besonders wertvoll, wenn ein Modell gelegentlich Ungenauigkeiten aufgrund veralteter Informationen produziert. Zum Beispiel könnte ChatGPT bei einer Frage nach dem aktuellen Premierminister des Vereinigten Königreichs weiterhin Boris Johnson nennen, obwohl er Ende 2022 sein Amt verließ. Diese Einschränkung ergibt sich, weil das Wissen des Modells auf seine Vortrainingsperiode beschränkt ist und spätere Ereignisse, wie die Ernennung von Rishi Sunak, nicht berücksichtigt.

Um solche Herausforderungen zu bewältigen, können LLMs durch Integration in die externe Welt mittels Agenten verbessert werden. Diese Agenten helfen, das fehlende Internetzugriff-Problem von LLMs zu überwinden und ermöglichen ihnen, mit Tools wie einer Wetter-API (für Echtzeit-Wetterdaten) oder SerpAPI (für Websuchen) zu interagieren. Ein bemerkenswertes Beispiel ist der Chatbot von Expedia, der Benutzer dabei unterstützt, Hotels zu finden und zu buchen, Anfragen zu Unterkünften zu beantworten und personalisierte Reisevorschläge zu liefern.

Eine weitere faszinierende Anwendung beinhaltet das automatische Labeln von Tweets in Echtzeit mit spezifischen Attributen wie Stimmung, Aggressivität und Sprache. Aus Marketingsicht kann ein Agent, der mit E-Commerce-Tools verbunden ist, dem LLM helfen, Produkte oder Pakete basierend auf Benutzerinteressen und Inhalten zu empfehlen.

3. Verketten von KIs

LLMs werden häufig isoliert für die meisten Anwendungen eingesetzt. In jüngerer Zeit hat jedoch die Kettenbildung von LLMs für komplexe Anwendungen an Bedeutung gewonnen. Dies beinhaltet das Verknüpfen mehrerer LLMs in einer Sequenz, um komplexere Aufgaben auszuführen. Jedes LLM ist auf einen bestimmten Aspekt spezialisiert, und sie arbeiten zusammen, um umfassende und verfeinerte Ergebnisse zu erzeugen.

Dieser Ansatz wurde bei der Sprachübersetzung angewendet, bei der LLMs nacheinander verwendet werden, um Text von einer Sprache in eine andere zu übersetzen. Unternehmen wie Microsoft haben die Verkettung von LLMs für Übersetzungsdienste vorgeschlagen, insbesondere bei sprachlichen Ressourcenmängeln. Dies ermöglicht genauere und kontextbewusste Übersetzungen seltener Wörter.

Dieser Ansatz kann auch in anderen Bereichen wertvolle Anwendungsfälle bieten. Für kundenorientierte Unternehmen kann die Kettenbildung von LLMs ein dynamisches Kundensupport-Erlebnis schaffen, das die Kundeninteraktionen, Servicequalität und betriebliche Effizienz verbessert.

Zum Beispiel kann das erste LLM Kundenanfragen sichten und kategorisieren und sie dann an spezialisierte LLMs für genauere Antworten weiterleiten. In der Fertigung kann die Kettenbildung von LLMs eingesetzt werden, um die gesamten Lieferkettenprozesse zu optimieren, indem spezialisierte LLMs für Bedarfsprognose, Bestandsmanagement, Lieferantenauswahl und Risikobewertung verkettet werden.

4. Entitätenextraktion mit LLMs

Vor dem Aufkommen der LLMs beruhte die Entitätenextraktion auf arbeitsintensiven ML-Methoden, die Datensammlung, Etikettierung und komplexes Modelltraining beinhalteten. Dieser Prozess war mühsam und ressourcenintensiv. Mit LLMs hat sich das Paradigma jedoch verschoben. Nun ist die Entitätenextraktion auf eine einfache Aufforderung reduziert, bei der Benutzer das Modell mühelos abfragen können, um Entitäten aus Texten zu extrahieren. Noch interessanter ist, dass beim Extrahieren von Entitäten aus unstrukturierten Texten wie PDFs sogar ein Schema und interessierende Attribute innerhalb des Prompts definiert werden können.

Potenzielle Beispiele sind Finanzinstitute, die LLMs nutzen können, um entscheidende Finanzentitäten wie Firmennamen, Tickersymbole und Finanzzahlen aus Nachrichtenartikeln zu extrahieren, was eine zeitnahe und genaue Marktanalyse ermöglicht. Ebenso kann es von Werbe-/Marketingagenturen zur Verwaltung ihrer digitalen Assets verwendet werden, indem sie die LLM-gesteuerte Entitätenextraktion nutzen, um Werbeskripte, Schauspieler, Orte und Daten zu kategorisieren, wodurch eine effiziente Inhaltsindizierung und Wiederverwendung von Assets erleichtert wird.

5. Erhöhung der Transparenz mit ReAct

Obwohl direkte Antworten von LLMs zweifellos wertvoll sind, wirft die Intransparenz des Black-Box-Ansatzes oft Bedenken bei den Benutzern auf. Darüber hinaus wird es bei einer ungenauen Antwort auf eine komplexe Anfrage schwierig, den genauen Fehlerpunkt zu ermitteln. Eine systematische Aufschlüsselung des Prozesses könnte den Debugging-Prozess erheblich unterstützen. Genau hier kommt das Reason and Act (ReAct) Framework ins Spiel und bietet eine Lösung für diese Herausforderungen.

ReAct legt Wert auf schrittweises Denken, damit das LLM Lösungen wie ein Mensch generiert. Das Ziel ist, das Modell dazu zu bringen, Aufgaben wie Menschen zu durchdenken und seine Überlegungen mit Sprache zu erklären. Diesen Ansatz zu operationalisieren ist einfach, da das Generieren von ReAct-Prompts eine unkomplizierte Aufgabe ist. Dabei drücken menschliche Annotatoren ihre Gedanken in natürlicher Sprache aus und führen die entsprechenden Aktionen aus. Mit nur wenigen solchen Instanzen lernt das Modell, sich gut auf neue Aufgaben zu verallgemeinern.

Inspiriert von diesem Framework testen viele Ed-Tech-Unternehmen Werkzeuge, um Lernenden eine personalisierte Unterstützung bei Kursarbeiten und Aufgaben zu bieten und Dozenten KI-gestützte Lehrpläne zu liefern. Zu diesem Zweck entwickelte die Khan Academy Khanmigo, einen Chatbot, der darauf ausgelegt ist, Schüler bei Mathematikaufgaben und Programmieraufgaben zu führen. Statt lediglich Antworten auf Anfrage zu liefern, ermutigt Khanmigo zu durchdachtem Problemlösen, indem es die Schüler durch den Denkprozess führt. Dieser Ansatz hilft nicht nur, Plagiate zu verhindern, sondern befähigt die Schüler auch, Konzepte eigenständig zu erfassen.

Zusammenfassung

Während die Debatte über das Potenzial von KI, menschliche Rollen zu ersetzen oder das letztendliche Erreichen der technologischen Singularität (wie vom „Godfather“ der KI, Geoffrey Hinton, vorhergesagt) noch andauert, bleibt eines sicher: LLMs werden zweifellos eine zentrale Rolle dabei spielen, verschiedene Aufgaben in einer Reihe von Bereichen zu beschleunigen. Sie haben die Kraft, die Effizienz zu erhöhen, Kreativität zu fördern und Entscheidungsprozesse zu verfeinern, und das alles, während sie komplexe Aufgaben vereinfachen.

Für Fachleute in verschiedenen technologischen Rollen, wie Datenwissenschaftlern, Softwareentwicklern und Produktbesitzern, können LLMs wertvolle Werkzeuge bieten, um Arbeitsabläufe zu optimieren, Erkenntnisse zu sammeln und neue Möglichkeiten zu erschließen.

Co-Autor Eve

Eve ist unser KI-Co-Autor, der uns dabei hilft, Ihnen schnell und effizient die neuesten Neuigkeiten aus der Welt der Künstlichen Intelligenz zu präsentieren. Auch wenn Eve noch nicht in der Lage ist, Artikel eigenständig zu verfassen, bietet sie eine wertvolle Unterstützung und trägt dazu bei, Sie stets auf dem Laufenden zu halten.

Zahlen und Fakten

%

Leistungssteigerung

Sprachen mit KI

Innovationen pro Monat

Worauf warten Sie noch?

Vereinbaren Sie jetzt ein kostenloses Strategiegespräch und lassen Sie sich kostenlos beraten:

  • Erhalten Sie exklusive Einblicke in die neuesten KI-Trends und -Technologien
  • Profitieren Sie von praktischen Tipps und Ratschlägen zur Implementierung von KI in Ihrem Unternehmen
  • Seien Sie direkt mit dabei, wenn neue bahnbrechende Tools und Lösungen vorgestellt werden.