Machen Sie sich mit dem Fachjargon vertraut, damit Sie das Potenzial von AI voll ausschöpfen können
AI hat eine eigene Sprache, die sich ständig weiterentwickelt. Da ist es gar nicht so einfach, Schritt zu halten. Dieses Glossar soll Ihnen die wichtigsten AI-Fachbegriffe erläutern, die Sie bei Ihrer Arbeit mit Daten und Analysen kennen sollten.
AI-Assistenten (virtuelle/digitale Assistenten)
Algorithmus
Augmented Analytics
Augmented Data Integration
Augmented Data Quality
Auto-Klassifizierung
AutoML
Automatisierte Einblicke
Klassenausgleich
Bias
Citizen Data Scientist
Klassifizierung
Cognitive BI
Dialogorientierte AI
Data Cleaning
Data Foundation
Data Governance
Daten-Labeling
Data Preparation
Data Provenance
Data Quality
Datenqualität (Data Quality Intelligence)
Data Science
Deep Learning
Experiment
Explainable AI (Erklärbare KI)
Forecasting
Basismodell
Generative AI (GenAI)
Key Driver Analysis (Treiberanalyse)
Large Language Model (LLM)
Low-Code/No-Code
Machine Learning (Maschinelles Lernen)
Modellerstellung
Modellimplementierung
Model Drift
Modelltraining
Natural Language Query (NLQ)
Neuronales Netzwerk
Predictive AI
Predictive Analytics
Prompt (Anweisung)
Regression
Selbstüberwachtes und unüberwachtes Lernen (Self-Supervised und Unsupervised Learning)
Sentiment-Analyse
Shapley-Wert
Strukturierte und unstrukturierte Daten
Überwachtes Lernen (Supervised Learning)
Synthetische Daten
Zeitreihenanalyse
Trainingsdaten
Was-wäre-wenn-Szenarien
AI-Assistenten (virtuelle/digitale Assistenten)
„Hallo Siri, was ist ein AI-Assistent?“ Diese AI-gestützten Lösungen können Befehle in natürlicher Sprache verstehen und darauf reagieren. Möglich macht dies eine spezielle Mensch-Daten-Schnittstelle, über die dem Assistenten per Sprachbefehl Aufgaben (Prompts) gestellt werden, auf die er dann maßgeschneiderte Antworten liefert. AI-Assistenten kommen immer häufiger zum Einsatz und sind bereits in viele moderne Smart-Geräte integriert. Bekannte Beispiele sind Alexa von Amazon, Siri von Apple, Copilot von Microsoft und Google Assistant. AI-Assistenten sind so zur primären Schnittstelle zwischen Menschen und AI geworden.
Algorithmus
Jedes AI-Modell benötigt einen Pfad oder eine Abfolge von Anweisungen, die es bearbeiten kann. Diese Algorithmen geben einem Modell vor, was es zu tun hat, und bestimmen sein Lernvermögen. Zu diesem Zweck werden Trainingsdaten erfasst und als Grundlage für die Ausführung von Aufgaben verwendet. Je mehr Aufgaben ein Algorithmus ausführt, desto besser kann er erkennen, wie nahe sein Output am gewünschten Ergebnis liegt, und so den Prozess entsprechend verfeinern. Da Algorithmen in der Lage sind, ihr Feintunig selbst zu übernehmen, müssen sich Programmierer öfter einschalten und sicherstellen, dass Algorithmen wie geplant funktionieren und Verzerrungen vermieden werden. Bei Machine Learning (maschinellem Lernen) und AI existieren mittlerweile zahlreiche verschiedene Algorithmen für unterschiedliche Aufgaben. Data Scientists und Machine Learning Engineers müssen nachvollziehen können, wie und warum ein bestimmter algorithmischer Ansatz dem jeweiligen Problem, den Daten und den Zielen entsprechend anzuwenden ist.
Augmented Analytics
Mithilfe von Augmented Analytics können Datennutzer in einer Weise mit Informationen interagieren, die die menschliche Wahrnehmung erweitert. Laut den Marktanalysten von Gartner beinhaltet dies den „Einsatz von Technologien wie Machine Learning und AI mit dem Ziel, Datenaufbereitung, Erkenntnisprozesse sowie deren Interpretation zu unterstützen“. Derartige Technologien erweitern die Analysefunktionen und ermöglichen eine noch detailliertere Datenauswertung. Letztendlich ermöglicht dies eine kontextbezogene Interaktion mit den Daten, wodurch ein noch größerer Personenkreis Analyselösungen einsetzen kann.
Augmented Data Integration
Datenintegrationsaufgaben kosten Profis oft extrem viel Zeit. So wichtig diese Aufgaben auch sind, es gibt bessere Einsatzgebiete für die hochqualifizierten Fachleute. Augmented Data Integration beschleunigt die Datenintegration mithilfe von AI und entlastet so die Datenteams. Laut den Marktanalysten von Gartner lässt sich die für manuelle Prozesse nötige Zeit durch die Automatisierung des Datenmanagements um 45 Prozent reduzieren. Auf diese Weise können Unternehmen Betriebsabläufe skalieren und ihren Datenprofis ermöglichen, sich auf komplexe oder erfolgskritische Aufgaben zu konzentrieren.
Augmented Data Quality
Datenqualität ist eine wesentliche Komponente von Data-Governance-Initiativen. Sie gibt Aufschluss über die Richtigkeit, Vollständigkeit, Verzerrung und Eignung von Datensätzen für den jeweiligen Zweck. Wird die Qualität der analysierten Informationen nicht überprüft, können automatisierte Systeme nicht wie vorgesehen funktionieren. Die Automatisierung dieses Prozesses – die Augmented Data Quality – beschleunigt die Abläufe. Sie eignet sich besonders für die Validierung großer Datensätze, die manuell äußerst zeitaufwendig sein kann. So erhält man das Beste aus beiden Welten: hochwertige Daten und mehr Effizienz bei wichtigen, aber potenziell langwierigen Aufgaben.
Auto-Klassifizierung
Bei Analyseprozessen geht es nicht immer darum, detaillierte Erkenntnisse aus komplexen Datensätzen zu gewinnen. In manchen Fällen kann es ausreichen, Dokumente oder andere Informationen in grobe Kategorien einzuordnen. Wie bei der Sentiment-Analyse kann auch hier AI in Form von Auto-Klassifizierung unterstützen. Anhand vordefinierter Kriterien werden bei der Auto-Klassifizierung Dokumente gescannt und ihnen werden relevante Tags und Kennzeichnungen zugewiesen, ohne dass menschliches Eingreifen erforderlich wäre.
Das Verfahren lässt sich an die jeweiligen Unternehmensanforderungen anpassen, indem die Schlüsselwörter, nach denen das Modell sucht, entsprechend ausgewählt werden. Auto-Klassifizierung ist ideal für das Content Management, da sie Anwendern ermöglicht, Inhalte schnell in Kategorien einzuordnen. Außerdem ist sie Voraussetzung für die AI-gestützte Suche.
AutoML
AutoML™ ist eine Lösung, die Analyseteams beim Einsatz von Machine Learning (ML) unterstützt, ohne dass dafür spezielles Know-how benötigt wird. Die Marktanalysten von Gartner definieren AutoML als Automatisierung von Datenaufbereitung, Feature Engineering und Model Engineering – drei Aufgaben, deren Erledigung bislang spezielles Fachwissen erforderte. AutoML ermöglicht Entwicklern, auch ohne umfangreiche ML-Kenntnisse hochkomplexe Aufgaben zu lösen und anspruchsvolle Modelle zu trainieren, die speziell auf die Anforderungen des Unternehmens zugeschnitten sind. So können sie für mehr Anwendungsfälle von der Analyse historischer Daten zu Predictive Analytics wechseln.
Automatisierte Einblicke
Durch den automatisierten Einblick in die Daten sind Unternehmen in der Lage, alles selbst zu machen und zugleich davon zu profitieren. Das bedeutet: Durch den Einsatz von AI profitieren Datennutzer von der Bereitstellung leicht verständlicher und verwertbarer Informationen aus großen Datenmengen. Manuelle Analysen und das dafür nötige Technik-Know-how sind dafür nicht mehr nötig.
Besonders technisch nicht so versierte Beschäftigte können so schneller Entscheidungen treffen. Machine Learning, Natural Language Processing (Verarbeitung natürlicher Sprache) oder statistische Analysen können Lösungen für automatisierte Einblicke unterstützen und dafür sorgen, dass sich wichtige Erkenntnisse und Handlungsempfehlungen in verständlicher Form gewinnen lassen.
Klassenausgleich
Manchmal enthalten Datensätze unausgewogene Merkmale, wobei eine Klasse im Vergleich zu anderen überproportional häufig vertreten ist. So eine unausgeglichene Klasse muss im Machine-Learning-Prozess berücksichtigt werden. Der Klassenausgleich gehört für Data Scientists zum Alltag. Wird ein Datensatz nicht ausgeglichen, kann sich dies erheblich auf die Richtigkeit der Analyse auswirken oder zu verzerrten AI-Modellen führen. Um hier gegenzusteuern, können verschiedene Methoden angewandt werden, wie beispielsweise Resampling oder das Erzeugen synthetischer Daten. Welche Methode am besten geeignet ist, hängt von den jeweiligen Eigenschaften des Datensatzes ab.
Bias
Bias in AI is like a hidden trap that can skew your model’s predictions and decisions. It creeps in from various sources, including the training data, the algorithms, or even how the AI is deployed. If your training data has biases, such as underrepresenting certain groups, your AI will likely repeat those biases. That’s why it's essential for data scientists to spot and fix bias using techniques like balanced datasets and fairness checks, ensuring your AI operates fairly and transparently.
Citizen Data Scientist
Analysen, AI und Daten fallen längst nicht mehr ausschließlich in den Zuständigkeitsbereich von IT-Experten. Das ist nicht weiter erstaunlich, denn immer mehr Branchen und Berufsgruppen nutzen Daten als Grundlage für ihre Arbeit. Dadurch ist eine neue Rolle entstanden: der „Citizen Data Scientist“. Der Begriff bezeichnet Business-Analysten, die sich im Rahmen ihrer Tätigkeit mit Data Science beschäftigen, ohne Programmier- oder Statistikexperten zu sein.
Citizen Data Scientists sind daher eher in den Fachbereichen zu finden und sie schließen die Lücke zwischen Analysen und strategischen Entscheidungen. Sie ergänzen die Arbeit der Data Scientists, indem sie deren Erkenntnisse nutzen, um ihr Unternehmen mit Daten bei Entscheidungen zu unterstützen. Außerdem ermöglichen sie den Fachleuten, sich auf die komplizierteren technischen Aufgaben zu konzentrieren.
Klassifizierung
Der Klassifizierungsprozesses nutzt Machine Learning, um das einfache Sortieren von Daten oder Dokumenten in vordefinierte Gruppen zu automatisieren. Stellen Sie sich vor, Sie werfen einen Haufen unsortierter Socken in eine Schublade. Doch wenn Sie die Schublade das nächste Mal öffnen, sind die Socken korrekt als Paare zusammengelegt und nach den Kategorien Sport, Arbeit und Freizeit geordnet. Dieses Beispiel veranschaulicht, was Klassifizierungsalgorithmen leisten können. Damit die Modelle erfolgreich eingesetzt werden können, müssen sie darauf trainiert werden, bestimmte Tags oder Schlüsselwörter den richtigen Kategorien zuzuordnen. So lernen sie, Datensätze künftig selbstständig in entsprechende und relevante Kategorien einzuordnen. In der Praxis bieten Klassifizierungsalgorithmen eine leistungsstarke Möglichkeit für Unternehmen, vorausschauende Erkenntnisse zu gewinnen und versteckte Muster zu finden.
Cognitive BI
Cognitive BI kombiniert Prozesse der herkömmlichen Business Intelligence (BI) mit kognitiven Computertechnologien wie AI und Natural Language Processing (Verarbeitung natürlicher Sprache), um Unternehmen beim Treffen datengestützter Entscheidungen zu unterstützen. Durch die Kombination der Technologien wird die Nutzung von Daten in allen Bereichen des Unternehmens – vom Marketing bis zum Finanzwesen – grundlegend verändert, da die Teams nun über zugängliche, umsetzbare und wertvolle datengesteuerte Erkenntnisse verfügen.
Dialogorientierte AI
Für den Einsatz von AI in Massenmarkt-Anwendungen muss sie in der Lage sein, menschliche Sprache zu verstehen, zu verarbeiten und zu simulieren. Hier kommt die dialogorientierte AI ins Spiel. Dieser Modelltyp ermöglicht uns, uns mit AI zu „unterhalten“. Im Kundenservice wird dialogorientierte AI regelmäßig in Form von Chatbots eingesetzt. Diese können Fragen beantworten und Probleme beheben, indem sie nach Schlüsselwörtern suchen und vordefinierte Antworten geben. Darüber hinaus ist diese Technologie eine Voraussetzung für die Konversationsanalyse. Mit ihr können Unternehmen Daten aus menschlichen Gesprächen gewinnen und so aus Kundeninteraktionen lernen.
Data Cleaning
Data cleaning is like giving your data a good scrub, getting rid of errors and inconsistencies. This includes removing duplicates, fixing inaccuracies, handling missing values, and ensuring uniform formats. Clean data is crucial for accurate AI models, as if your data is dirty it can result in misleading insights. By keeping your data clean, you ensure it’s ready for analysis, and your AI models can deliver trustworthy results.
Data Foundation
Think of a data foundation as the rock-solid base that holds up all your AI efforts. It covers everything from data collection and storage to management and analysis. This includes having strong data governance, top-notch data pipelines, secure storage, and efficient processing tools. With a robust data foundation, your data is accurate, consistent, and ready for action, helping you unlock AI’s full potential for smarter insights and better decisions.
Data Governance
Für eine effektive Datenanalyse müssen Unternehmen interne Regeln und Standards definieren, die festlegen, wie Daten erhoben, gespeichert, verarbeitet und vernichtet werden. Diese Aufgaben werden unter dem Oberbegriff Data Governance zusammengefasst. Angemessene Governance-Strukturen garantieren nicht nur mehr Datensicherheit, sondern zeigen auch, dass die in einem Unternehmen gespeicherten Daten vertrauenswürdig sind und nicht missbräuchlich verwendet werden. Die wachsende Bedeutung von Daten in der Wirtschaft hat dazu geführt, dass Unternehmen zunehmend strengere Datenschutzbestimmungen einhalten müssen, wodurch Data Governance immer wichtiger wird.
Daten-Labeling
Beim Daten-Labeling werden Daten durch das Hinzufügen von beschreibenden oder informativen Kennzeichnungen oder Tags für Machine-Learning-Algorithmen verständlich und verwertbar aufbereitet. Durch das Labeln von Daten können Algorithmen trainiert werden, anhand dieser Informationen Vorhersagen zu machen oder Klassifizierungen vorzunehmen. Im Gegenzug kann der Algorithmus dann beginnen, genaue Prognosen abzugeben, wenn er auf neue, nicht gekennzeichnete Daten trifft.
Data Preparation
Data preparation is the magic that turns raw data into gold. It involves cleaning, structuring, and enriching raw data to make it ready for AI model training. Proper data preparation ensures your data is accurate and consistent, setting the stage for high-performing AI. Investing in thorough data prep means better analytical insights and more effective AI-driven results.
Data Provenance
Data provenance is like a detailed diary for your data, tracking its journey from origin to final use. It records where the data comes from, how it’s transformed, and how it’s used, ensuring transparency and accountability. Knowing your data’s history is crucial for verifying its quality, staying compliant with regulations, and simplifying troubleshooting. By keeping detailed records of data provenance, you can trust your data and the AI models built on it.
Data Quality
Data quality is all about making sure your data is up to scratch – accurate, complete, consistent, reliable, and timely. High-quality data is the key to AI models that deliver valid and actionable insights. If your data is flawed, your AI's predictions will be too. That’s why organizations need to practice good data hygiene, with regular cleaning, validation, and monitoring to keep their data in top shape and ensure their AI is spot on.
Datenqualität (Data Quality Intelligence)
Ein AI-Modell ist nur so gut wie die Daten, mit denen es gefüttert wird. Wurde das Modell mit minderwertigen Daten trainiert, kann dies zu unrichtigen oder unzuverlässigen Ergebnissen führen. Wenn Unternehmen die Belastbarkeit ihrer Daten und Datenmanagementverfahren analysieren wollen, ist Datenqualität das Rückgrat jeder guten Datenstrategie. Den dadurch gewonnenen Erkenntnissen müssen aber unbedingt auch entsprechende Maßnahmen folgen. Andernfalls gibt es keine Garantie, dass datengestützte Entscheidungen auf zuverlässigen Informationen beruhen.
Data Science
Das Gewinnen nützlicher Erkenntnisse und Vorhersagen aus Daten – insbesondere aus großen Datenmengen – erfordert eine Kombination aus unterschiedlichen Disziplinen wie Statistik, Informatik und Mathematik. Diese Kombination bezeichnet man als Data Science. Sie ist die Formel, mit der Rohdaten in Informationen verwandelt werden, um Trends zu erkennen und fundierte Entscheidungen zu treffen.
Data-Science-Profis – sogenannte Data Scientists – verfügen in der Regel über gute Datenkenntnisse, sind oft aber auch in anderen Bereichen von der Datenerfassung über die Modellierung bis hin zur Implementierung eines AI-Modells einsetzbar. Dieses Fachgebiet hat in den meisten Branchen schnell Einzug gehalten, da immer mehr Unternehmen nach Möglichkeiten suchen, wie sie Daten effektiver zur Entscheidungsfindung nutzen können.
Deep Learning
Jede Form von AI versucht, die Entscheidungsprozesse des menschlichen Gehirns zu imitieren, doch manche Teilgebiete lassen sich davon stärker inspirieren als andere. Deep Learning beispielsweise ist eine Form von Machine Learning, die auf neuronalen Netzen basiert. Dabei werden sowohl strukturell als auch durch die Verwendung vernetzter Schichten von künstlichen Neuronen Daten verarbeitet und daraus gelernt.
Laut Forrester eignet sich die Technik am besten zum „Erstellen, Trainieren und Testen neuronaler Netzwerke, die wahrscheinlichkeitsbasiert Ergebnisse vorhersagen und/oder unstrukturierte Daten klassifizieren.“ In der Praxis bedeutet dies, dass Deep Learning in der Bild- und Spracherkennung, der Sprachübersetzung, dem autonomen Fahren und in Empfehlungssystemen zum Einsatz kommt.
Experiment
Ein Experiment ist der Prozess, mit dem Machine-Learning-Modelle trainiert, bewertet und perfektioniert werden. Experimente sind hochgradig strukturiert und ermöglichen Data Scientists und AutoML-Anwendern, sämtliche Ausführungen des Machine Learning, die als „Durchgang“ bezeichnet werden, zu organisieren und zu steuern. Es sind oft mehrere Wiederholungen nötig, bis das Modell wie gewünscht funktioniert, wobei zwischen den Durchgängen oft Visualisierungen und Vergleiche eingebunden werden. Experimente spielen eine entscheidende Rolle beim Erkennen von Mustern, der Feinabstimmung des Modells und sie stellen sicher, dass das Modell für den Einsatz in der Praxis bereit ist.
Explainable AI (Erklärbare KI)
AI eignet sich hervorragend, um Erkenntnisse zu gewinnen und Ergebnisse vorherzusagen. Doch es ist genauso wichtig zu wissen, wie sie zu ihren Schlussfolgerungen gekommen ist. Erklärbarkeit, Transparenz und Nachvollziehbarkeit sind entscheidend, wenn die Maßnahmen ermittelt werden sollen, mit denen sich am besten Ergebnisse beeinflussen, Wissen fördern und Vertrauen aufbauen lassen. Doch nicht alle Machine-Learning-Modelle sind erklärbar. Bei der Entscheidung, welche Algorithmen wir verwenden wollen, müssen wir daher die Notwendigkeit von Metriken für die Erklärbarkeit anhand des Kontexts bewerten, in dem Entscheidungen getroffen werden. Ohne Erklärbarkeit besteht die Gefahr, dass unbeabsichtigte Verzerrungen in die Entscheidungsprozesse einfließen.
Forecasting
Einer der wichtigsten Vorteile von AI für die Datenanalyse ist die Fähigkeit, auf Basis historischer Daten Vorhersagen innerhalb eines bestimmten Zeitfensters zu treffen. Diese Zeitreihenprognosen nehmen ein historisches Datenmuster und nutzen statistische Techniken wie einfache oder multivariate Regression, um künftige Ergebnisse vorherzusagen.
AI-Planungsprogramme können zukünftige Ereignisse vorhersagen, indem sie große Mengen von strukturierten und unstrukturierten Daten auswerten, Zusammenhänge herstellen und Muster auf eine Weise ermitteln, die herkömmlichen Forecasting-Systemen weit überlegen ist. So können Unternehmen nicht nur vorausschauende Entscheidungen treffen, sondern sich auch alternative Szenarien für den Fall überlegen, dass nicht alles so läuft wie geplant.
Basismodell
Wird ein Modell für generative AI mit Trainingsdaten und für einen bestimmten Anwendungsfall entwickelt, spricht man von einem Basismodell. Basismodelle sind die Grundlage, auf der komplexere Algorithmen aufgebaut werden und sie lassen sich je nach Einsatzgebiet im Unternehmen anpassen. In der Regel handelt es sich bei ihnen um groß angelegte Modelle, die mit umfangreichen Datensätzen trainiert wurden. Beispiele hierfür sind GPT-3 und GPT-4 von OpenAI, auf denen ChatGPT beruht.
Generative AI (GenAI)
Obwohl AI unendlich viele Anwendungsmöglichkeiten bietet, wurde sie für kreative Aufgaben eher nicht in Betracht gezogen. Das hat sich seit dem Aufkommen von generativer AI - kurz GenAI - geändert. Generative Modelle werden speziell darauf trainiert, neue Inhalte wie Texte, Videos, Bilder oder Audio-, und Musikdateien zu erzeugen.
Allerdings geht das nicht ohne menschliche Anweisungen - Prompts genannt - und riesige Datenmengen. Beides ist erforderlich, damit die AI die Muster und Strukturen lernen kann, die für das Erstellen neuer, komplexer Inhalte erforderlich sind. Dieser Zweig der AI ist nicht frei von ethischen Bedenken. Die Grenzen zwischen Täuschung und Wirklichkeit verschwimmen, beispielsweise in Form von Deepfakes, bei denen Medieninhalte absichtlich verfälscht oder geändert werden.
Key Driver Analysis (Treiberanalyse)
Mit der Key Driver Analysis (KDA, Treiberanalyse) wird ermittelt, welche Faktoren sich auf ein bestimmtes Ergebnis auswirken, und wie wichtig sie für dessen Vorhersage sind. Am häufigsten kommt KDA in der Marktforschung oder bei der Analyse von Kundenbeziehungen zum Einsatz. Sie hilft Unternehmen, die treibenden Kräfte hinter dem Verbraucherverhalten und den angestrebten Unternehmensergebnissen, wie beispielsweise der Kundenbindung, zu verstehen. Mit AI lässt sich die Treiberanalyse optimieren und es können auch sehr komplexe Datensätze verarbeitet und Muster und Beziehungen erkannt werden. Dabei wird so lange in umgekehrter Reihenfolge vorgegangen, bis die wichtigsten Faktoren identifiziert sind.
Large Language Model (LLM)
Haben Sie sich schon einmal gefragt, wie AI in der Lage ist, Inhalte wie Texte, Musik, Bilder oder Videos zu erzeugen? Dies gelingt mithilfe von LLMs. Diese Deep-Learning-Algorithmen unterstützen GenAI-Produkte und -Lösungen wie ChatGPT, indem sie anhand vorhandener Informationen lernen, etwas Neues zu produzieren.
Gartner zufolge werden LLMs mit „gewaltigen“ Datenmengen trainiert, die sie benötigen, um effektiv arbeiten zu können. Sie leiten daraus Muster und Beziehungen zwischen Wörtern und Phrasen ab, die sie für kreative Ergebnisse brauchen. Das bedeutet, dass sie massenhaft öffentlich zugängliche Informationen aus dem Internet benötigen. So können LLM-gestützte Produkte selbständig lernen und sich fortlaufend verbessern, während sie genutzt werden.
Low-Code/No-Code
Die zunehmende Verbreitung digitaler Produkte und Services hat Softwareentwickler zu äußerst gefragten Fachleuten gemacht. Allerdings übersteigt die Nachfrage nach wie vor das Angebot. Um diesen Mangel auszugleichen, setzen Unternehmen verstärkt auf Low-Code- oder No-Code-Plattformen. Darüber können sich auch Personen ohne technisches Know-how an der Softwareentwicklung beteiligen – selbst wenn sie nur über begrenzte Programmierkenntnisse verfügen. Meist werden modulare, Drag-and-Drop- oder assistentenbasierte Benutzeroberflächen eingesetzt, mit denen sich Software erstellen lässt, ohne dass programmiert werden muss.
Je nach Bedarf kann ein Unternehmen Low-Code-Tools (die lediglich eine geringe Einbindung von Profis erfordern) oder No-Code-Tools (für die keinerlei Programmierkenntnisse nötig sind) verwenden. Auf diese Weise lässt sich die Entwicklung von AI-Systemen demokratisieren und Unternehmen können die Zeit ihrer Experten effektiver nutzen.
Machine Learning (Maschinelles Lernen)
Machine Learning ist eine Teildisziplin der AI, mit der Computersysteme automatisch aus Daten lernen können, ohne explizit programmiert zu werden. Im Endeffekt geht es darum, Beziehungen und verborgene Muster zu erkennen sowie Vorhersagen zu treffen. Generell gilt: je mehr Daten, desto besser. Machine-Learning-Algorithmen lernen aus ihren Eingaben und erzielen umso bessere Ergebnisse, je mehr Informationen sie erhalten. Auf diese Weise werden Anwendungen wie Bilderkennung, Natural Language Processing (Verarbeitung natürlicher Sprache), überwachtes und unüberwachtes Lernen und vieles mehr ermöglicht.
Modellerstellung
Das Entwickeln und Erstellen von AI-Modellen kann ein langwieriger und komplexer Prozess sein, der Fachwissen in den Bereichen Data Science und Machine-Learning-Techniken erfordert. Unter Modellerstellung versteht man die Abfolge der Aufgaben, die nötig sind, um ein praxistaugliches Modell zu entwickeln. Sie beginnt mit dem Erfassen und Aufbereiten der Trainingsdaten für das Modell und endet mit dessen Implementierung und Pflege. Hierfür sind technisches Know-how, Kreativität und Problemlösekompetenz gefragt.
Modellimplementierung
Nachdem ein AI-Modell trainiert wurde, kann es implementiert werden. Dazu wird es mit neuen oder Echtzeitdaten gefüttert, die das Modell „bewertet“ oder aus denen es Vorhersagen ableitet. Allerdings reicht es nicht, es einfach in die Praxis zu entlassen: Der Prozess der Modellimplementierung geht weit darüber hinaus. Sobald ein Modell den Nutzern oder anderen Softwaresystemen zur Verfügung steht, wird es mit einer Vielzahl neuer und ihm unbekannter Daten konfrontiert, die die erkannten Muster und Verbindungen beeinflussen. AI-Modelle müssen daher permanent überprüft und getestet werden. Nur so ist sichergestellt, dass sie auch weiterhin die gewünschten Ergebnisse liefern.
Model Drift
AI-Modelle basieren auf Datensätzen, die sie als Informationsdatenbanken nutzen, um Entscheidungen zu treffen und Ergebnisse zu liefern. Werden diese Datensätze jedoch nicht regelmäßig aktualisiert, kann dies die Qualität eines Modells beeinträchtigen, da die Annahmen, auf denen es basiert, nicht mehr zutreffen. Diese Entwicklung wird als „Model Drift“ bezeichnet und kann zu fehlerbehafteten oder weniger relevanten Vorhersagen sowie zu einer Zunahme falsch-positiver oder falsch-negativer Ergebnisse führen. Wenn Model Drift nicht schnell erkannt und behoben wird, hat dies negative Auswirkungen auf die Integrität der Modelle sowie auf die praktischen Anwendungen und Prozesse, die sie verwenden.
Modelltraining
Bei der Entwicklung von AI-Systemen ist es wichtig, jedes Modell mit hochwertigen Daten und Beispielen zu konfrontieren, damit es korrekte Assoziationen und Ergebnisse liefert. Dieser Trainingsprozess, bei dem die Modelle lernen, wie sie Muster erkennen, Vorhersagen treffen oder bestimmte Aufgaben erfüllen, ist für den Erfolg ihrer späteren Leistung unerlässlich. Wenn sich der Kontext oder die Anforderungen an ein Modell ändern und das Modell entsprechend weiterlernt, kann zusätzliches Training erforderlich sein, um den Einfluss von weniger strukturierten Daten auszugleichen. Lernt das Modell ohne regelmäßiges Training unkontrolliert weiter, steigt das Risiko von Verzerrungen und minderwertigen Ergebnissen.
Natural Language Query (NLQ)
Je ausgereifter AI-Lösungen werden, desto mehr sind sie auf immer größere Datenmengen angewiesen. Damit sie für alle zugänglich sind, ist es wichtig, dass auch Teammitglieder ohne technische Vorkenntnisse Datenabfragen in Alltagssprache stellen können. Hier setzt Natural Language Query (NLQ) an.
AI-Systeme wie beispielsweise virtuelle Assistenten verwenden NLQ, um Benutzereingaben zu analysieren, nach relevanten Daten zu suchen und Antworten zu liefern. Es geht, wie es Gartner ausdrückt, um die Umwandlung dieser Eingaben in „kodierte, strukturierte Informationen“. Je nachdem, wie aufwendig die jeweilige NLQ-Lösung ist, können Abfragen schriftlich oder per Spracheingabe formuliert werden. Auf diese Weise entfällt der Bedarf an nicht-sprachbasierten Eingaben und AI-Systeme können von allen genutzt werden.
Neuronales Netzwerk
Neuronale Netze sind dem menschlichen Gehirn nachempfunden und die zentralen Bausteine von AI und Machine Learning. Die Rechenmodelle sind so angelegt, dass sie Daten verarbeiten und aus ihnen lernen können. Ähnlich wie Synapsen im Hirn bestehen auch sie aus miteinander verbundenen Knoten (einem Datenpunkt in einem Netzwerk oder Graphen), die in Schichten angeordnet sind. Es gibt drei Arten von Schichten: eine für die Eingabe, eine für die Ausgabe sowie verborgene Schichten. Diese Schichten sind die Grundlage dafür, dass neuronale Netzwerke lernen und komplexe Beziehungen in Daten modellieren können. Dadurch sind sie in der Lage, Beziehungen auf einer nichtlinearen Ebene zu analysieren.
Predictive AI
Predictive AI ist eine wichtige Voraussetzung für datengestützte Entscheidungsprozesse. Sie ermittelt Muster in historischen Daten und leitet daraus Forecasts, Prognosen oder Schätzungen für zukünftige Ereignisse oder Ergebnisse ab. AI-Algorithmen können umfangreiche und komplexe Datensätze analysieren, die die menschlichen Fähigkeiten übersteigen, um, wie Gartner es formuliert, Antworten auf die Frage zu liefern: „Was wird wahrscheinlich passieren?“ Dank dieses erweiterten Forecastings, das über die Möglichkeiten herkömmlicher Predictive Analytics hinausgeht, können Unternehmen Zukunftsszenarien auf Grundlage von Prozessen abbilden, die riesige Datenmengen nutzen.
Predictive Analytics
Analysen müssen auf historischen Daten beruhen. Schließlich kann nichts analysiert werden, was noch nicht passiert ist. Dies bedeutet jedoch nicht, dass sie nicht verwendet werden können, um Vorhersagen zu zukünftigen Ergebnissen zu treffen. Dieses Prinzip von Predictive Analytics wird von IBM als Kombination von Daten mit „statistischer Modellierung, Data-Mining-Techniken und Machine Learning“ definiert. Predictive Analytics lernt aus historischen Daten, Muster zu erkennen und Prognosemodelle zu entwickeln, die zukünftige Trends, Ereignisse und Ergebnisse vorhersagen. Unternehmen setzen diese Analysen in Entscheidungsprozessen ein und um sich Wettbewerbsvorteile zu sichern.
Prompt (Anweisung)
Wie ausgereift das Modell oder wie komplex sein zugrundeliegender Datensatz auch sein mag: AI benötigt grundsätzlich ein gewisses Maß an menschlichem Input. Prompts sind der Ausgangspunkt für die Interaktion mit AI-Modellen. Sie formulieren eine Anfrage oder eine Anweisung, die das System dazu auffordert, eine vorgegebene Aufgabe auszuführen. Prompts können ganz unterschiedlich sein: von einfachen Fragen in natürlicher Sprache bis hin zu detaillierten, kontextabhängigen Anfragen. Wie Datennutzer auf der ganzen Welt gerade beim Experimentieren mit generativer AI feststellen, kann die Eindeutigkeit eines Prompts erhebliche Auswirkungen auf die Richtigkeit und Relevanz der Ausgabe des Modells haben. So können beispielsweise Prompts ineffektiv sein, weil sie sich nicht an die Möglichkeiten und Grenzen des Modells halten.
Regression
Während AI-Modelle auf allen Arten von Daten basieren können, handelt es sich bei Regression um eine überwachte Machine-Learning-Technik, die speziell dazu dient, Vorhersagen auf Grundlage numerischer Werte zu treffen. Lineare und logistische Regression sind zwei der gängigsten Regressionsverfahren. Das lineare Regressionsmodell bildet eine optimale Gerade (oder Kurve) zwischen Datenpunkten ab und sagt kontinuierliche Werte voraus. Im Gegensatz dazu handelt es sich bei der logistischen Regression um eine binäre Methode, die die Wahrscheinlichkeit bewertet, mit der etwas eintritt oder nicht eintritt. Im Prinzip soll damit die Frage „Ja oder Nein?“ beantwortet werden. Regression eignet sich besonders gut für die Entscheidungsfindung in Bereichen, in denen regelmäßig quantitative Daten verwendet werden, wie beispielsweise in der Finanz- und Betriebswirtschaft, im Gesundheitswesen und im Ingenieurswesen. So lassen sich beispielsweise Aktienkurse vorhersagen oder Umsätze schätzen.
Selbstüberwachtes und unüberwachtes Lernen (Self-Supervised und Unsupervised Learning)
Anders als beim überwachten Lernen (Supervised Learning) erschwert der Mangel an gekennzeichneten „gelabelten“ Daten mitunter das Training von AI-Modellen. Selbstüberwachtes Lernen ist eine Methode, die es ermöglicht, Aufgaben aus Daten zu erstellen, die über kein Label verfügen. Dabei werden die dateneigenen Strukturen und Muster genutzt, um Elemente des betreffenden Datensatzes vorherzusagen oder zu generieren. Ein Beispiel hierfür ist das so genannte „Image Inpainting“, bei dem fehlende Bereiche eines Bildes anhand der umliegenden Pixel ergänzt werden. Unüberwachtes Lernen geht sogar noch einen Schritt weiter und hilft, völlig neue Einblicke zu gewinnen. Dazu wird das Modell darauf trainiert, Muster, Strukturen oder Gruppierungen ohne explizite Labels oder Ziele zu finden. Auf dieser Methode beruhen Technologien wie die Anomalieerkennung.
Sentiment-Analyse
Ist AI in der Lage, die in einem Text ausgedrückten Emotionen zu erkennen? Diese Fähigkeit bleibt dem Menschen vorbehalten. Doch mit Sentiment-Analyse kann AI etwas Ähnliches leisten. Allerdings benötigt sie dafür zunächst unsere Hilfe. Damit Algorithmen die Stimmung in einem Text richtig erfassen können, müssen sie anhand von gekennzeichneten Daten trainiert werden. So lernen sie, bestimmte Wörter mit Emotionen zu verknüpfen.
Das US-Marktforschungsunternehmen Forrester versteht unter Sentiment-Analyse die automatische Klassifizierung von Online-Kommentaren als positiv, neutral oder negativ. Allerdings können komplexe Modelle durchaus eine detailliertere Bewertung abgeben. Sie eignen sich dann besonders gut zum Erfassen der öffentlichen Meinung oder großer Textmengen
Shapley-Wert
Betrachtet man die Zusammensetzung eines Vorhersagemodells, so liegt es auf der Hand, dass einige Werte einen größeren Einfluss auf die Vorhersagen haben als andere. Beim Machine Learning achten Entwickler besonders auf die „Shapley-Werte“. Diese zeigen, welche Bedeutung die einzelnen Merkmale für die Vorhersage der Ergebnisse haben.
Dieses Konzept stammt aus der Spieltheorie, bei der es darum geht, den Beitrag jedes Spielers in einem gemeinsamen Spiel zu bestimmen. Das Ziel ist, die Leistung des Modells auf mathematische und ausgewogene Weise den einzelnen Eingabemerkmalen zuzuordnen. Auf diese Weise lassen sich wertvolle Einblicke in die Funktionsweise eines Modells gewinnen und feststellen, wie es Vorhersagen trifft. Dies führt letztlich zu mehr Transparenz und schafft mehr Vertrauen in das Modell.
Strukturierte und unstrukturierte Daten
In Abhängigkeit von ihrer Definition und Organisation werden Datensätze als strukturiert oder unstrukturiert eingestuft. Während strukturierte Daten in der Regel in Tabellen und Datenbanken abgelegt und damit leichter zu finden und einfacher zu analysieren sind, gibt es für unstrukturierte Daten keine vordefinierten Formate oder Kategorisierungen. Sie liegen oft in Textform vor, beispielsweise als E-Mails, Social-Media-Beiträge oder Kundenfeedback. Die Verarbeitung solcher Informationen ist weitaus anspruchsvoller und es lassen sich nur schwer aussagekräftige Schlussfolgerungen daraus ableiten. AI eignet sich besonders gut, um Erkenntnisse aus unstrukturierten Daten zu gewinnen. Mit ihr können sich Unternehmen bisher nicht nutzbare, verschiedenartige Informationsquellen erschließen und völlig neue Einblicke erhalten.
Überwachtes Lernen (Supervised Learning)
Genau wie im Schulunterricht kann die beste Lehrmethode manchmal darin bestehen, den Weg zu einer richtigen Antwort zu demonstrieren. Beim überwachten Lernen wird ein AI-Modell mit einem „gelabelten“ Datensatz trainiert, damit es lernt, die gewünschten Ergebnisse zu liefern. Da der Algorithmus aus bekannten korrekten Antworten gelernt hat, ist er durch überwachtes Lernen in der Lage, zu generalisieren und seine eigenen Entscheidungen oder Vorhersagen auf Grundlage von unbekannten Daten zu treffen. Dieses Prinzip ist die Grundlage für diverse Techniken wie Natural Language Processing (Verarbeitung natürlicher Sprache) und Regressionsanalyse.
Synthetische Daten
Stehen für das Training eines AI-Modells nicht genügend Daten aus der Praxis zur Verfügung, werden dafür künstlich erzeugte synthetische Daten verwendet. Diese simulieren alle Merkmale und statistischen Eigenschaften echter Daten, indem sie die Muster, Verteilungen und Strukturen nachbilden. So lassen sich auch Bedenken hinsichtlich des Datenschutzes zerstreuen, da die Entwickler mit Informationen arbeiten können, ohne die Kundendaten zu gefährden. Nach Angaben des US-Marktforschungsunternehmens IDC kann diese Methode dazu beitragen, „einen Teil der Verzerrungen zu beseitigen, die beim Training mit einer kleinen Datenmenge auftreten“.
Bei der Generierung synthetischer Daten muss jedoch sorgfältig darauf geachtet werden, dass diese die Eigenschaften des Originaldatensatzes authentisch wiedergeben. Andernfalls besteht das Risiko, dass das Modell fehlerhafte Entscheidungen oder Vorhersagen liefert.
Zeitreihenanalyse
Wird eine Serie von Datenpunkten in gleichmäßigen Abständen über einen bestimmten Zeitraum gesammelt, lassen sich mit einer Zeitreihenanalyse Muster, Trends und zugrundeliegende Strukturen ermitteln. Die daraus resultierenden Informationen variieren von Umsatzzahlen bis hin zur Absatzhäufigkeit. Diese weit verbreitete Methode erlaubt es Unternehmen, Einblicke in Trends zu gewinnen und datengestützte Entscheidungen zu treffen – sei es rückblickend oder im Rahmen von Prognosen.
Trainingsdaten
Alle AI-Modelle starten bei null. Bevor sie Ergebnisse liefern können, müssen sie zunächst mithilfe von Daten trainiert werden. Auf diese Weise lernen sie, wie sie vorgehen sollen. Während man das Modell mit Trainingsdaten füttert, erlernt es Muster, Beziehungen und Regeln.
Die Qualität, Menge und Vielfalt der verwendeten Daten ist dabei entscheidend. Auf diesen Grundlagen baut die AI in Zukunft auf. Wenn also die Menge oder Qualität der Daten unzureichend ist oder es Verzerrungen gibt, wird das Modell in seiner Analyse stets die gleiche Einschätzung vornehmen. Um sicherzustellen, dass AI-Modelle belastbar sind, muss jeder Trainingsdatensatz vielfältig und repräsentativ sein.
Was-wäre-wenn-Szenarien
Sie haben sicher konkrete Erwartungen an Ihr AI-Modell. Doch woher wissen Sie, welche Variablen Sie anpassen müssen? Was-wäre-wenn-Szenarien sollen die Transparenz, Ausgewogenheit und Zuverlässigkeit von AI verbessern. Dazu untersuchen sie potenzielle Ergebnisse oder die Konsequenzen aus hypothetischen Situationen. Solche Fragen können so einfach sein wie: „Was wäre, wenn ein wichtiger Lieferant seinen Betrieb einstellt?“ oder so utopisch wie „Was wäre, wenn das AI-Modell Gefühle entwickelt?“ Wenn man die Auswirkungen verschiedener Variablen auf das Modell durchspielt, versteht man besser, wo seine Grenzen liegen und wie man seine Belastbarkeit erhöhen kann. Auf diese Weise können Unternehmen nicht nur fundiertere Entscheidungen treffen, sondern auch mehr Verantwortung für ihre Modelle übernehmen.