Start

Angewandte AI für Manager – verständlich erklärt

Angewandte AI für Manager – verständlich erklärt

Für eilige Leser

  • Generative AI hilft bei der Automatisierung und Kostensenkung im Unternehmen. Dabei werden GenAI Modelle auf proprietäre Unternehmensdaten angewendet. GenAI erhält zurecht derzeit die höchste Aufmerksamkeit unter den verfügbaren AI-Technologien.
  • PDFs, Scans, E-Mails und multimediale Inhalte können mithilfe GenAI automatisiert verarbeitet werden. Auftragseingang, Rechnungserstellung, Vertragswesen sowie zahlreiche Suchen in Unternehmensdaten und -anwendungen sind gängige Anwendungsfälle mit enormen Produktivitätspotenzial.
  • Mitarbeiter und Geschäftspartner können autonom über intelligente ChatBots mit Anwendungen und Daten interagieren. Das Eintippen, Copy & Paste sowie mühsame Zusammensuchen von Daten aus mehreren Quellen lässt sich so vermeiden. Die Ergebnisqualität steigt deutlich.
  • AI muss wie jede Technologie beherrscht und gezielt eingesetzt werden. Widrigenfalls stimmt die Genauigkeit und Korrektheit der Ergebnisse nicht. Hierfür gibt es mehrere Qualitätssicherungsmaßnahmen genauso wie Methoden zum sicheren Einsatz bei den vertraulichen Unternehmensdaten.

Tipp zum Ausprobieren

Was AI aus Sprache machen kann, zeigt das Unternehmen fireflies.ai. Ihre Software-as-a-Service Lösung nimmt Videokonferenzen auf, erstellt Zusammenfassungen von Meetings, extrahiert die nächsten Schritte und macht die gesamte Konversation durchsuchbar. Praktisch! Wie werden die großen Anbieter wohl reagieren?

Zurück zum Thema!

Influencer und Einfluss

Zieht eine neue Technologie die Menschen in ihren Bann, wird es gruselig. In bester Marktschreiermanier schwingen sich zumeist technisch unbedarfte Menschen auf, übertriebene Erwartungen an und phantastische Prognosen für den Segen dieser Innovation zu verbreiten. Soziale Medien sind der beste Nährboden für solche Übertreibungen. Es wird vorausgesagt, versprochen und gelogen, bis die Balken sich biegen. Je drastischer der Wandel gezeichnet wird, desto mehr “Views” – so die Hoffnung. Mit Aufmerksamkeit lässt sich gut Geld verdienen: Cost-per-Clicks bzw. Cost-per-View sei dank. Auch manch hübsches Marketinggesicht holt man man auf diese Weise gerne zu einer “Beratung” ins Unternehmen. Man ist ja hipp, fortschrittlich – und es ist auch nett.

Die vielen “Influencer”, “LinkedIn Voices”, “Top 30 under 30” wollen ja ernährt werden.

Kompetente Techniker blicken durch solche Feuerwerke oberflächlicher Naivität hindurch. Für sie zählt vielmehr, wie das zugrundeliegende technische “Wunderwerk” funktioniert, welcher Mittel es sich bedient, wo es seine Stärken und Schwächen hat, unter welchen Bedingungen es gut und schlecht funktioniert – und was man damit alles machen kann.

Weitsichtige Unternehmer prüfen, ob eine neue Technologie Substanz hat oder sich als Sternschnuppe entpuppen wird, welche operativen und ggf. grundlegenden Auswirkungen sie auf das eigene Geschäft haben kann, welchen wirtschaftlichen Nutzen sie entfalten kann bzw. welche Anpassungen am eigenen Geschäftsmodell nötig sein können. Es gilt das Motto: Was mir nichts nutzt, ist nichts wert. Was mir schadet, bringt mich zum Nachdenken.

Dieselbe Problematik stellt sich bei Generative Pre-Trained Transformer Modellen (GPT), die heute in aller Munde sind:

Was können wir damit konkret anfangen?

Um diese Frage zu beantworten, muss zuerst verstanden werden, was diese Modelle – sie sind gleichsam das Synonym für AI heute – eigentlich leisten und was nicht. Wir richten darauf jetzt unseren Fokus.

Leistung

Was leisten GPT Modelle bzw. die Plattformen, in denen sie eingebettet sind eigentlich? Das ist wichtig zu verstehen!

GPT Modelle erzeugen …

  • mithilfe eines Inputs, zumeist einer Frage oder Anweisung auch “Prompt” genannt,
  • und ihres auf Unmengen an vorher trainierten Datenmaterials – vorwiegend Texte aus Wikipedia, Internet Inhalten oder Source Code Plattformen wie GitHub usw. -, auch “Modell” genannt,
  • Vorhersagen über aus “Input” und “Erfahrung” abgeleitete Daten – zumeist wieder Texte – auch “Completion” genannt.

Kurz:

Die AI Plattform versteht die Eingabe und erzeugt mithilfe eines anhand ähnlicher Aufgabenstellungen vortrainierten Algorithmus eine neue Ausgabe, die wie ein menschliches Werk erscheint.

Was ist AI aber nicht? AI – und hier konkret GPT – ist indes nicht “kreativ”. Es hat auch keine Verständnis von den Inhalten, die es interpretiert und erzeugt. Von einem eigenen Bewusstsein wollen wir erst ganz schweigen.

Mit “Intelligenz” im menschlichen Sinn hat AI auch nichts zu tun. GPT Modelle erzeugen Fortsetzungen von etwas auf Basis einer vortrainierten Parametrisierung des erzeugenden Modells. Dabei kommen stochastische Verfahren zum Einsatz, sodass das Ergebnis (z.B. der produzierte Text) nicht von außen vorhersagbar ist und dessen Entstehung auch nicht nachvollziehbar ist. Zu komplex sind die GPT Modelle.

Zwar sind GPT Modelle in ihrem mathematischen Aufbau dem menschlichen Gehirn nachempfunden (logische “Knoten” als Ersatz für neuronale Synapsen), um die abgestufte Funktionsweise des menschlichen Gehirns zu imitieren, jedoch liegt ihnen ansonsten alles Menschliche fern.

Nutzen

Wir wissen jetzt, dass GPT Modelle aus einer Eingabe mithilfe eines vortrainierten Algorithmus eine Ausgabe erzeugen. Wozu können wir diese Technologie im Unternehmenskontext nun nutzen?

Analyse von großen Informationsmengen

GPT Modelle können auf eine entsprechende Eingabe (“Prompt”) große Mengen an textueller – aber auch bildlicher und akustischer – Information zusammenfassen, bewerten, erklären, in andere Worte fassen oder interpretieren. Das ist ihre immense Stärke: Sie machen aus Daten etwas anderes – hier kürzere, anders formulierte, segmentierte Texte usw.. Daher werden sie für Sentimentanalysen, Zusammenfassungen, Extraktion wichtiger Punkte sowie Umformulierungen oder Übersetzungen verwendet.

Nicht zu verwechseln sind GPT Modelle mit Suchmaschinen wie Google, da ihre Urfunktion die Erschaffung (d.h. Fortsetzung) von etwas “Neuem” ist auf Basis von zuvor trainierten Beziehungen einer Unmenge an Datenmaterial zueinander (d.h. Wörter, Pixel, Tönen zu einander). Aus diesem Grund würde ein und dieselbe Suchabfrage an ein GPT Modell immer (leicht) unterschiedliche Ergebnisse liefern. Das GPT Modell ist dann doch etwas “eigenwillig”, da es mit Wahrscheinlichkeiten für die Fortsetzung operiert – und diese sind nicht immer eindeutig.

Ebenso verhält es sich bei der Generation von Neuem aus einer Suchanfragen an unternehmenseigene Daten wie z.B. eine Vertragsdatenbank mit dem Prompt: “Fasse mir alle Vertragspassagen für den Kunden Mayer GmbH zusammen, an denen ich in den letzten 3 Jahren mitgewirkt habe.”. Die Zusammenfassung wird im Detail immer anders aussehen mit dem positiven Merkmal, dass die zugrundeliegenden Fakten jene des Unternehmens sind und damit eine stabile Datenbasis liefern. Die Gefahr von Halluzinationen, d.h. dem Erfinden von “Fakten”, ist daher deutlich geringer.

Man merke sich:

GPT Modelle sind kein Suchmaschinenersatz

Zwischenzeitlich haben manche Anbieter ihre Suchmaschinen um GPT-Fähigkeiten erweitert. Diese Suchmaschinen nehmen dann eine Abfrage entgegen (Prompt), um daraus mithilfe eines GPT Modells und einer riesigen Anzahl zuvor indizierter Daten eine Antwort (Completion) auf die Abfrage zu erzeugen, die sich auf relevanten Daten bezieht, welche über eine Suche auf Entsprechung zum Prompt gefunden wurden. Hier wird im Hintergrund die Relevanz der Daten zuerst geprüft, auf welche die Transformation, d.h. Erzeugung von “Neuem” angewendet wird. GPT wird auf eine Suche angewendet, ersetzt sie aber nicht.

Vertriebsmitarbeiter setzen GPT Modelle zur Interpretation von Videokonferenzen ein. Woran genau ist ein Kunde interessiert? Welche Unterlagen hat er angefordert, worauf hat er wie reagiert? Und vieles mehr. Da AI nicht auf Text beschränkt ist, sollte das multimediale Einsatzgebiet nicht übersehen werden!

Source Code erzeugen, Entwickler produktiver machen

Mit Copilot X für Visual Studio Code ist – analoge Plug-ins gibt es von Oracle und anderen – ist ein Anwendungsfall populär geworden, um Software auf Basis von textuell formulierten Anforderungen zu erzeugen. Das GPT Modell erzeugt aus präzisen Anforderungen Source Code in der gewünschten Entwicklungssprache und ist sich über den Verlauf der Anforderungsbeschreibung im Klaren, sodass es punktuelle Erweiterungen oder Änderungen im Nachhinein einfügen kann.

Des Weiteren kann ein GPT Modell Source Code verstehen, verständlich erklären, dokumentieren, Testfälle erstellen, Fehler erkennen, Verbesserungsvorschläge unterbreiten und von einer Programmiersprache in die andere überführen.

Wir erwarten, dass diese Fähigkeiten in naher Zukunft in allen Plattformen der Softwareentwicklung zum Einsatz kommen wird. Das Aufgabenspektrum und die Wirkung des Softwareentwicklers wird sich deutlich verbreitern. Er wird an Anforderungen maßgeblich mitwirken, Architekturen entwerfen, Testfälle spezifizieren, weite Teile der Implementierung über geschriebene oder gesprochene Sprache durchführen lassen, Dokumentationen automatisiert erstellen lassen und sich auf die Ende-zu-Ende Funktionalität konzentrieren. AI wird ihm vieles der – vielleicht liebgewonnenen – Entwicklungsarbeiten abnehmen.

Frisst die Revolution ihre Kinder?

Erkenne die Zeichen der Zeit, heißt das Motto. Die Revolution wird zwar nicht ihre Kinder fressen, sie aber zum Umdenken und Handeln zwingen. Gewinner werden die kreativen und innovativen Entwickler sein, die Ideen haben und die Welt verbessern wollen. Ihnen hat AI ein mächtiges Instrumentarium an die Hand gegeben. Vielleicht lässt sich so auch der Fachkräftemangel abfedern.

Werbetexte und E-Mail Antworten erzeugen

Marketiers nutzen GPT Modelle wie ChatGPT zur Erstellung von Outbound E-Mail Marketing Kampagnen, Redigierung von Werbetexten oder kundenspezifischen Kommunikation.

Perspektivisch werden GPT Plug-ins E-Mails beantworten, Kundeninteraktionen übernehmen – und sehr viel Allgemeinplätze zum besten geben. Denn man merke:

Menschliche Kreativität ist keine Eigenschaft von GPT Modellen

Es spricht nichts gegen automatisiert umformulierte oder in eine andere Sprache übersetzte Texte, jedoch kann der gewiefte Spammer ganze Plattitüden mit ein paar Stichworten generieren lassen. Die AI macht das klaglos mit.

Intelligente Bots statt nervige Sprachmenüs

Was bei E-Mails funktioniert, ist auch auf Webseiten oder in Apps interaktiv möglich. Customer Service Bots oder Helpdesk Bots sind ein weiteres Einsatzgebiet von GPT im Unternehmen. Nutzt man die verfügbaren Informationen über den Kunden – z.B. aus dem CRM, so kann der AI Bot relevante und spezifische Aufgaben erledigen. Zudem kann er Prozesse ansteuern – AI sollte immer auch der Automatisierung von manuellen Arbeiten dienen -, sodass z.B. fehlende Rechnungen herausgesucht und in einer vom Kunden vorgegebenen Form erstellt werden (z.B. als XRechnung). Weiters können Tickets aufgegeben werden, über interaktive Agenten Informationen über das Kundensystem automatisiert und vom GPT Modell gemäß dem Kundenanliegen abgerufen werden, um anschließend gemäß Kundenwunsch über das GPT Modell im entsprechenden Backend-System aktualisiert zu werden. Letztlich führt das GPT Modell die relevante Handlung zur Bearbeitung des Anliegens semi-automatisiert durch.

Diese Verkettung von Prompt-Response Mustern erlaubt eine weitgehende Automatisierung von Geschäftsvorfällen, die von Menschen angesteuert werden, jedoch von AI Bots gelöst werden. Die Tage einfältiger Sprachmenüs sind gezählt.

Anwendung im Unternehmen

GPT Plattformen sind vielfältig einsetzbar. Wir wollen hier zwei größere Anwendungsbereiche herausgreifen, die für jedes Unternehmen relevant sind. Darüber hinaus ist bereits absehbar, dass AI in jedes Softwareprodukt Einzug erhalten wird. Es ist nur eine Frage der Zeit, bis die oben geschilderten Einzelleistungen in den meisten marktgängigen Software-Suiten enthalten sein werden.

Automatisierte Dokumentenverarbeitung

Ob PDF, Excel, E-Mails, Word Dokumente, Scans oder Fotos: GPT-basierte Lösungen verstehen die Inhalte dieser Unterlagen und können diese an weiterführende Systeme übergeben. Konkrete Anwendungsbeispiele im Unternehmen sind:

  • Automatische Auftragserfassung von heterogenen PDFs im Handel
  • Transportauftragserfassung in der Logistik
  • Verarbeitung und korrekte Buchung von Eingangsrechnungen in allen Branchen
  • Erzeugung von Ausgangsrechnungen in dem vom Rechnungsempfänger gewünschten Format sowie Aufgliederung
  • Überprüfung von Analysenzertifikaten in der Kosmetik- und Life-Science-Industrie
  • Auswertung von Lieferscheinen und Packlisten mit anschließender Buchung im Lagerverwaltungssystem
  • Automatische Policierung von Anträgen in der Versicherungsbranche
  • Automatische Prüfung von Leistungsansprüchen aus Verträgen
  • Erstellung von Arztbriefen, Reparaturberichten, Gesprächsaufzeichnungen bzw. -mitschriften auf Basis aufgezeichneter Konversationen.

Das sind nur einige Beispiele. Der Kreativität sind keine Grenzen gesetzt.

Was Menschen mit Dokumenten bislang manuell machen, kann mittels AI automatisiert werden.

Enterprise Information Search

Was mit ausgewählten Dokumenten funktioniert, geht auch mit den gesamten Unternehmensinformationen – unabhängig, wo sie liegen und in welcher Form sie vorliegen. So können analog zu ChatGPT bestehende GPT Modelle wie z.B. OpenAI oder Cohere auf Baupläne, Ersatzteile, Lagerbestände, CRM-Inhalte, Bestellungen und Internet-Informationen angewendet werden. Dazu sind zwar ein paar Vorbereitungsschritte nötig. Aber dafür gibt es bereits Plattformen, welche ein über Schnittstellen vermitteltes Beladen von spezialisierten Datenbanken wie Vektordatenbanken oder Graphdatenbanken ermöglichen, sodass die GPT Modelle anschließend auf diese proprietären Unternehmensdaten angewendet werden können.

Konkrete Beispielanwendungen sind:

  • Außendienstmitarbeiter mit schrittweisen Reparaturanweisungen sowie Montageanweisungen zu spezifischen Kundeninstallationen versorgen.
  • Rechtsanwälte und Steuerberater – sowie Verwaltungsmitarbeiter – mit konkreten Antworten auf einen Sachverhalt versorgen und den Schriftsatz vorformulieren lassen.
  • Vertriebsangebote für bestimmte Kunden sowie Anforderungen mit allem verfügbaren Know-How aus dem Unternehmen erstellen, um diese für den Kunden relevant sowie inhaltlich erschöpfend zusammenzustellen.
  • Informationssuche in Sekunden zu spezifischen Problemen durchführen, statt sich mühevoll über viele Stunden durch zahlreichen Programme, Datenbanken und Portale quälen.
  • Hinweise für Problembehebungen interaktiv und spezifisch für den konkreten Fall an Techniker und Sachbearbeiter vor Arbeitsbeginn übermitteln und die nötigen Maßnahmen vorschlagen bzw. erläutern.

Das ganze Unternehmenswissen sowie die proprietären Unternehmensdaten stehen nicht nur über sprachliche Interaktion zur Verfügung. Nein, AI kann diese binnen Sekunden genau auf das konkrete Anliegen durchsuchen und die ausgewählte Information bzw. Antwort in relevanter Form widergeben. Hier kommt die Stärke des generativen Elementes voll zum Tragen.

Der Sachbearbeiter interagiert mit seinen Unternehmensinformationen so, wie er selbst das Problem sieht – und lässt es teilweise automatisiert lösen.

AI hilft Mitarbeitern, schrittweise zu einer Lösung zu gelangen bzw. erarbeitet diese Lösung im Zusammenspiel mit ihm. Mühsames Zusammenstellen von verteilten Informationen gehört der Vergangenheit an.

Komponenten

Technologien alleine reichen nicht aus. Sie müssen einfach nutzbar gemacht werden. Es drängt sich die Frage auf, was soll denn ein Unternehmen erwerben, um von all diesen tollen AI-Fähigkeiten zu profitieren?

Antwort 1: Vorerst nichts!

Bevor die fachliche Anforderung nicht vollständig durchdrungen und in ihre technischen Aspekte zerlegt wurde, sollten Sie nichts kaufen. Zwar bieten einige Firmen “fertige” Lösungen an. Ihr Nutzen ist in der Praxis jedoch umstritten, weil sie meistens nur bis zu einem gewissen Grad die fachlichen Anforderungen abdecken und die Ergebnisqualität für einen zuverlässigen Einsatz nicht ausreicht.

Zahlreiche innovative IT-Unternehmen der ersten Stunde sehen sich zudem den superreichen Giganten wie Microsoft, Google oder Oracle gegenüber, die deren Produkte einfach in ihre eigenen neuen Massenprodukte integrieren. Enterprise Information Search ist so ein Thema; genauso die automatisierte Dokumentenverarbeitung. Es kommt vielmehr auf die Anpassung dieser bestehenden, neuen Plattformen auf die Unternehmenssituation an, als ein weiteres neues System eines Anbieters einzuführen.

Wer als Innovator bis heute keine starke Marktposition errungen hat und ein sehr gut funktionierendes Produkt bei vielen Kunden eingeführt hat, ohne dass hunderte oder tausende Beratungsstunden nötig sind, zählt zu den Verlierern des Jahres 2023.

AI ist keine technologische Nische sondern ein integraler Bestandteil aller großen Lösungen.

Antwort 2: Kompetenz erlangen

Wir beobachten, dass im vierten Quartal 2023 Firmen wie Microsoft – und dahinter OpenAI – eine leistungsfähige Basistechnologie zur Verfügung stellen, um die oben geschilderten Anwendungsfälle und viele mehr zu realisieren. Mit Ausnahme anderer US Tech-Giganten wie Google, Oracle, Meta, Amazon oder IBM – und möglicherweise deren chinesischen und indischen Pendants wie Alibaba – wird es kaum jemandem gelingen, funktional und technisch Schritt zu halten. Der Kapitalbedarf und das nötige Know-How sind einfach zu groß. Möglicherweise wird sich das nochmals ändern, wenn die Open Source Community Fuß fassen sollte. Derzeit ist das aber nicht absehbar.

Um eine tragfähige und vor allem den Erwartungen entsprechende Lösung zu erzielen, bedarf es einer tiefgreifenden Kompetenz in der Nutzung von verschiedenen AI-Ansätzen. Das oberflächliche Verständnis einer Technologie und die Nutzung von Consumer Diensten wie ChatGPT reicht nicht aus. Die “Schlacht” wird bei jenen Problemfällen entschieden, die mit 100%iger Wahrscheinlichkeit – also Gewissheit – auftreten werden. Folglich ist die technische Kompetenz in den unterschiedlichen AI-Technologien, Modellen, Plattformen anhand von konkreten Anwendungsfällen unerlässlich. Mit etwas Kreativität können dann auch bei den technologiebedingten Nachteilen von AI Lösungen gefunden werden, die in sehr erfolgreichen Systemeinführungen münden.

Letztlich geht es nicht um AI alleine. Zahlreiche Details rundherum müssen geklärt werden: Integration in Unternehmensdaten, Identifikation von Ausnahmefällen und Fehlerfällen, Einbettung in bestehende Unternehmensanwendungen (z.B. SAP), Ergänzung um Hilfsdienste wie z.B. eine Vektordatenbank, Logging und Monitoring, Sicherheit im Umgang mit den Daten, Man-in-the-Loop für Korrekturen und vieles mehr.

Hier ist fachliche Kompetenz gefragt, damit generative AI nicht plötzlich zum Desaster eines Unternehmens wird, weil Ergebnisse falsch sind oder im Internet für alle zugänglich landen.

Antwort 3: Modular denken und entwickeln

In der Cloud lohnt sich ein Denken in funktionalen Modulen. Aufgrund der Machtanhäufung bei den Internetgiganten muss immer von ungünstigen Abhängigkeitsverhältnissen ausgegangen werden. Kein Unternehmen sollte alle seine Eier in einen Korb legen. Eine Aufteilung der fachlichen Funktionen auf mehrere Module und mehrere Anbieter ist eine sinnvolle Risikomitigation.

Zudem ist generative AI noch eine verhältnismäßig junge Technologie. Sie ist gerade ein Jahr breitenwirksam. Viele neue Angebote stehen in den Startlöchern oder werden erst in den nächsten zwei Jahren auf den Markt kommen.

Folglich sollte jedes Unternehmen möglichst gut seine Funktionalitäten kapseln und auf eine technische Gleichartigkeit und Reproduzierbarkeit der Ergebnisse in mehreren Plattformen hinarbeiten. So kann man zum Einen von nützlichen Innovationen profitieren, aber sich auch gegen ungünstige Preiserhöhungen wehren – ein bisschen wie beim Wechsel des Stromanbieters.

Eine gezielte und maßvolle Diversifikation des Technologiestacks ist unter Risikogesichtspunkten sinnvoll und sollte sorgfältig geplant werden. Zudem sollte die Erstellung der Lösung automatisiert sein (“Beladung” mit Daten etc.), sodass sie auf mehrere Plattformen übertragen werden kann.

Lege nicht alle Eier in einen Korb

Einfluss auf Ergebnis und Nutzen

Wir wissen jetzt, dass die modernen, leistungsfähigen AI Plattformen in den Händen weniger US-amerikanischer Großkonzerne sind. Wir wissen auch, dass es Strategien gibt, diese Abhängigkeit zumindest zu begrenzen. Und es ist zu erwarten, dass die Open Source Community noch mehr willkommene Pluralität in diese Technologiekonzentration bringen wird. Auf Hugging Face erhält man einen Eindruck, wie groß die Vielfalt an AI Modellen heute bereits ist. So viel zum Wirtschaftlichen.

Wir kehren zurück zum Technischen: Hier wissen wir, dass GPT Modelle aus einer Eingabe mithilfe eines vortrainierten Algorithmus eine Ausgabe erzeugen. Wovon hängt das Produkt dieses Erzeugungsprozesses ab – und damit die Ergebnisqualität und Nützlichkeit von AI?

Folgende Abhängigkeiten sind zu nennen:

  1. Dem Modell selbst
  2. Den Trainingsdaten
  3. Der Modellnutzung
  4. Den Verbesserungsmaßnahmen

Modellauswahl

Es stehen sowohl proprietäre große GenAI Modelle zur Nutzung als Cloud-Dienst zur Verfügung (z.B. OpenAI GPT 3.5 Turbo, GPT 4, Cohere) oder Open Source Modelle, die im eigenen Rechenzentrum oder in der unternehmenseigenen Private Cloud eingesetzt werden können (z.B. Meta Llama 2). Zusätzlich gibt es eine Vielzahl an spezialisierten Modellen diverser kleinerer Anbieter, die jedoch nicht unbedingt besser sein müssen als die großen Sprachmodelle.

Bei der Modellauswahl sind vor allem technische Parametern zu prüfen. Das sind u.a.:

  • Die Anzahl der im Modell enthaltenen “Knoten” (d.h. “Parameter”, ähnlich zu sehen wie Synapsen im Gehirn; je mehr, desto besser)
  • Die Anzahl an möglichen “Wörtern” (d.h. “Tokens”), aus denen der Prompt und die Completion bestehen können – wichtig, wenn größere Dateien ein AI-Modell durchlaufen sollen –
  • Oder die Integrationsfähigkeit des AI-Modells in einen Unternehmensprozess (Schnittstellenfeatures, Plug-in-Fähigkeit usw.).

Eine Orientierung können öffentliche Benchmarks zu den Modellen geben. Hier sei das Center for Research on Foundation Models der Standford University genannt. In vielen Fällen wird ein Unternehmen nicht umhinkommen, den springenden und erfolgsentscheidenden Punkt seines Anwendungsfalles konkret mit dem gewünschten Datenmodell zu verproben. Das kann mit geringem Aufwand geschehen, resultiert jedoch in einer belastbaren Entscheidungsbasis und einer Einschätzung der zu erzielenden Ergebnisqualität.

Versuch macht klug.

Man beachte: AI basiert auf stochastischen Prozessen. Eine 100%ige Sicherheit gibt es nicht hinblicklich der Ergebnisqualität. Wichtig ist daher, die Fehlerfälle durch eine kluge Modellauswahl klein zu halten sowie durch eine eindeutige Identifikation aussteuern zu können.

Trainingsdatenqualität

Um ein GPT Modell im Unternehmen nutzbar zu machen, müssen relevante Trainingsdaten zur Verfügung gestellt werden. Das können PDF-Dokumente, E-Mails, Scans, Webseiten und vieles mehr sein. Entscheidend ist die Relevanz ihres Inhaltes für das zu lösende Problem. Handelt es sich z.B. um PDF-Aufträge, die automatisch in ein ERP-System gebucht werden sollen, dann sollte eine repräsentative, heterogene Auswahl davon vorgelegt werden, um das AI-Modell daraufhin zu optimieren.

Erst wenn die Grundqualität der Ergebnisse eines AI-Modells passt, sollten weitere Maßnahmen ergriffen werden. Dies gilt umso mehr, wenn klassisches Machine Learning (ML) zum Einsatz kommt. Hier findet zuerst ein Labeling statt. Nur wenn die Trainingsdatenstichprobe gut ausgewählt wurde, ist auch das Trainingsergebnis brauchbar. Dieses lässt sich dann auf weitere, neue Beispiele anwenden, um die Genauigkeit beurteilen zu können (“Verification”).

Die Trainingsdaten determinieren in GenAI-Verfahren die grundlegende Kalibrierung des Modells. Wie sieht der Prompt genau aus? Welche Zusatzinformationen wird dem AI-Modell übergeben, damit es die Trainingsdaten richtig interpretiert? Welche Parameter werden eingestellt, um die üblichen Probleme von GenAI wie “Halluzination” zu vermeiden? Das ist nur mit guten Trainingsdaten und deren treffenden Beurteilung möglich.

Modellnutzung

Generative AI-Verfahren haben zu einigen Best Practices geführt. Diese resultieren wiederum ein einer höheren Accuracy und damit Ergebnisqualität.

Neben dem Prompt-Engineering, hinter dem sich die Erstellung intelligenter und wirksamer Analyse- bzw. Erstellungsaufforderungen verbirgt, kommen noch zwei weitere Verfahren zum Einsatz: Die sogenannten “Shots”.

Unter “Zero-Shot”, “One-Shot” und “Few-Shots” verstehen wir Verfahren, bei denen zusammen mit dem Prompt die korrekt Antwort (“Zero-Shot”), ein Beispiel mit einem ähnlichen Datensatz (“One-Shot”), oder mehrere Beispiele (“Few-Shots”) übergeben werden mit dem Ziel, dass das AI-Modell daraus für die Zukunft lernt. Dieses Lernen findet in dem unternehmenseigenen Account der AI-Plattform statt und steht nicht der Allgemeinheit zur Verfügung. Folglich bleiben proprietäre Daten proprietär.

Unter “Fine-Tuning” versteht man die separate Übergabe von Prompt-Completion-Paaren mit derselben Erwartung: Das AI-Modell soll daraus lernen, wie eine Aufgabe zu lösen ist.

Beide Methoden verbessern die Ergebnisqualität. Dies sollte gerade im Vorfeld einer breiten Anwendung von GenAI im Unternehmenskontext gemessen und ausgewertet werden. Zudem sollten dabei die Sensitivitäten bewertet werden: Welche Auswirkung hat es, wenn ich die eine oder andere Methode auf die eine oder andere Art anwende?

Ergebnisoptimierung

Wurde ein GenAI-Anwendungsfall in Produktion genommen, wird es naturgemäß zu Fehlerfällen kommen. Diese sollten vor Inbetriebnahme bereits automatisiert abgefangen worden sein, sodass ein Fehler-Log oder eine Klärfallsammlung dazu verwendet werden können, das AI-Setup zu verbessern. Ggf. müssen mehrere Methoden oder Modelle auch kombiniert werden, um in Summe den gewünschten Automatisierungsgrad zu erreichen.

Dabei ist relevant, wie konzentriert die Fehlerfälle sind. Erstreckt sich eine kleine Fehlerrate von z.B. 2% über 70% der Fälle, so kann das schnell zur Unbrauchbarkeit des Ansatzes führen.

Die Ergebnisoptimierung gelingt dann, wenn vorgenannten Punkte berücksichtigt wurden. Sie legen das Fundament der AI-Automatisierung.

Von diesen vier Punkten hängt die Nutzbarkeit von AI im Unternehmensumfeld maßgeblich ab. Es lohnt sich, diese ernst zu nehmen, um das Maximum aus dem Projekt zu erreichen. 98% Accuracy sind so erreichbar und führen damit zu einer immensen Produktivitätssteigerung und Kostensenkung.

Datensicherheit

Da die mächtigsten und leistungsfähigsten AI-Plattformen ausschließlich als Dienst aus der Cloud angeboten werden (Software-as-a-Service), fließen die Unternehmensdaten grundsätzlich in die Cloud. Sie entziehen sich damit der Kontrolle des Unternehmens.

Manche AI-Dienste lassen sich im lokalen Rechenzentrum oder in der Private Cloud nutzen (z.B. Microsoft Document Intelligence), jedoch sollte das kein Ersatz für Datenschutz sein.

Aus diesem Grund geben die führenden AI-Plattform Hersteller an, die Daten ihrer Unternehmenskunden nicht für das Training ihrer AI-Modelle weiterzuverwenden. Die Daten werden nach ihren Angaben EU DSGVO-konform verarbeitet und seien nur im Zugriff der anwendenden Unternehmen selbst.

Sollte ein Unternehmen sehr sensible Daten einsetzen, so müssen zusätzliche Schutzmechanismen integriert werden. Das reicht von der Anonymisierung personenbezogener Daten bis hin zur genauen Unterscheidung, welche Daten in welcher Form zu welchem Anbieter in welche Umgebung geleitet werden.

Bevor ein AI-Modell in der Breite eingesetzt wird, sind die datenschutzrechtlichen Nutzungsbedingungen sowie operativen Schutzmaßnahmen zu prüfen. Ein gewisses Restrisiko wird bleiben, so wie das allen Cloud-Diensten derzeit noch inhärent ist. Wir selbst nehmen diese Frage jedoch sehr ernst und prüfen im Einzelfall.

AI im Unternehmen

Wie sollte ein AI Projekt im Unternehmen aufgesetzt werden? Hier gibt es eine einfache Methodik, deren Einhaltung in der Praxis schwierig erscheint. Es bedarf daher guter Führung und Konsequenz im Projektmanagement:

  1. Definieren Sie die Aufgabe und das Problem erschöpfend. Keine Floskeln, keine oberflächlichen Träume. Klare operative, konkrete Beschreibungen.
  2. Prüfen Sie, ob und, wenn ja, welche AI Technologie(n) die Aufgabe auf welche Weise bewältigen können. Passt AI zum Problem? Wie genau löst AI das Problem? Was ist der springende Punkt, der über Erfolg und Misserfolg entscheidet?
  3. Probieren Sie den springenden Punkt aus. Money walks, BS talks. Was Sie nicht gesehen haben, ist ein Fall für die Kirche. Dort können Sie glauben, bei AI müssen Sie im Zweifelsfall den Erfolg durch Tun validieren.
  4. Planen Sie für die Ausnahmefälle. Keine AI-Lösung liefert ein 100%iges Ergebnis. Fehler passieren systeminhärent. Wie erkennen Sie diese und wie können Sie diese zur Beurteilung ausschleusen?
  5. Bereiten Sie sich emotional auf Schwierigkeiten vor. Vertrauen Sie auf Ihre Problemlösungskompetenz oder holen Sie sich Unterstützung von extern. Die Technologie ist jung, die Komplexität hoch, die Erfahrung noch gering. Die Chancen sind jedoch enorm – wenn man die Situation intellektuell durchdringt.

In diesem Sinne:
Nutzen Sie Ihre menschliche Intelligenz, das Maximum aus der künstlichen für Ihr Unternehmen herauszuholen!

Über Business Automatica GmbH:

Business Automatica senkt Prozesskosten durch Automatisierung manueller Tätigkeiten, hebt die Qualität beim Datenaustausch in komplexen Systemarchitekturen und verbindet On-premise Systeme mit modernen Cloud- und SaaS-Architekturen. Angewandte künstliche Intelligenz im Unternehmen ist dabei ein integraler Bestandteil. Zudem bietet Business Automatica auf Cybersicherheit ausgerichtete Automatisierungslösungen aus der Cloud.