Versuchst du KI zu verstehen? Fangen Sie mit unserem Glossar mit über 100 KI-Begriffen bei den Grundlagen an.
Beschleuniger - Spezialisierte Hardware, die entwickelt wurde, um schnellere KI-Berechnungen für leistungsstärkeres Modelltraining und Inferenz zu ermöglichen.
KI-Ausrichtung - Bemühungen sicherzustellen, dass KI-Systeme sich auf eine Weise verhalten, die mit menschlichen Werten und Absichten übereinstimmt.
KI-Assistent - KI-gestützte Werkzeuge, die entwickelt wurden, um Benutzer bei verschiedenen Aufgaben zu unterstützen, wie das Beantworten von Fragen, Bereitstellen von Empfehlungen oder Anbieten von Anleitungen.
KI-Prüfung - Prozess der Bewertung von KI-Systemen auf Einhaltung ethischer Standards, Leistungskennzahlen und regulatorischer Anforderungen.
KI-Verzerrung - Systematische Fehler in KI-Systemen, die zu unfairen oder diskriminierenden Ergebnissen führen können, oft als Widerspiegelung von Vorurteilen in Trainingsdaten.
KI-Governance - Richtlinien, Praktiken und Strukturen für die verantwortungsvolle Verwaltung der Entwicklung und Nutzung von KI-Technologien.
KI-Kompetenz - Verständnis von KI-Konzepten, Fähigkeiten und Grenzen, das eine informierte Interaktion mit und Bewertung von KI-Systemen ermöglicht.
KI-Risikomanagement - Strategien und Praktiken zur Identifizierung, Bewertung und Minderung potenzieller negativer Auswirkungen von KI-Systemen.
KI-Sicherheit - Bereich, der sich auf die Entwicklung von KI-Systemen konzentriert, die zuverlässig, kontrollierbar sind und keine unbeabsichtigten Schäden verursachen.
Algorithmische Fairness - Ansätze, um sicherzustellen, dass KI-Systeme Entscheidungen treffen, ohne bestimmte Gruppen oder Einzelpersonen zu diskriminieren.
Künstliche Allgemeine Intelligenz (AGI) - Ein theoretisches KI-System, das in einer Vielzahl von Aufgaben mit den kognitiven Fähigkeiten des Menschen mithalten und diese übertreffen kann.
Künstliche Intelligenz (KI) - Computersysteme, die erschaffen, denken und Probleme lösen können, die historisch einen Menschen erfordert hätten.
Künstliche Superintelligenz (ASI) - Hypothetische KI, die menschliche Intelligenz in allen Bereichen übertrifft und tiefgreifende ethische und existenzielle Fragen aufwirft.
Aufmerksamkeit (auch Aufmerksamkeitsmechanismus oder Aufmerksamkeitsmodell) - Mechanismus in neuronalen Netzen, der es KI-Modellen ermöglicht, sich auf bestimmte Teile von Eingabedaten zu konzentrieren, was die Leistung bei Aufgaben wie Sprachübersetzung und Bildanalyse verbessert.
Backpropagation - Algorithmus im maschinellen Lernen, der neuronale Netze trainiert, indem er Fehler berechnet und Gewichtungen rückwärts durch Schichten anpasst.
BERT (Bidirectional Encoder Representations from Transformers) - Ein Transformer-basiertes KI-Modell, das Text verarbeitet, indem es sowohl die vorangehenden als auch die folgenden Wörter für jeden Token betrachtet, auch bekannt als bidirektionales Training.
Big Data - Extrem große Datensätze, die spezialisierte KI-Techniken und Werkzeuge zur Verarbeitung und Analyse erfordern.
Gedankenkette - KI-Prompt-Technik, die Sprachmodelle ermutigt, beim Problemlösen schrittweise zu denken, um die Ausgabequalität zu verbessern.
Chatbot - KI-gestützte Werkzeuge wie ChatGPT, die darauf ausgelegt sind, natürlich klingende Gespräche mit Menschen zu führen.
Chinesisches Zimmer - Ein Gedankenexperiment, das die Vorstellung in Frage stellt, dass KI-Systeme Sprache wirklich verstehen, und die Natur der Maschinenintelligenz hinterfragt.
Berechnung - Rechenleistung und Ressourcen, die für die Ausführung von KI-Aufgaben erforderlich sind und die Größe und Komplexität von Modellen beeinflussen.
Computer Vision - Bereich der KI, der Computer trainiert, visuelle Informationen aus der Welt zu interpretieren und zu verstehen.
Convolutional Neural Networks (CNNs) - Spezialisierte neuronale Netze, die für die Verarbeitung gitterartiger Daten entwickelt wurden, besonders effektiv für Bildanalyseaufgaben.
Contrastive Language-Image Pre-training (CLIP) - Ein NLP-Modell, das lernt, Text und Bilder zu verbinden, und vielseitige visuelle Erkennungsaufgaben ermöglicht.
Kontextfenster - Die Menge an Informationen, die ein KI-Modell auf einmal berücksichtigen kann, wenn es Vorhersagen oder Antworten macht.
Konversations-KI - KI-Systeme, die auf natürliche, konversationelle Weise mit Menschen interagieren können, typischerweise über eine Chat-Schnittstelle.
Benutzerdefiniertes Modell - Ein KI-Modell, das auf spezifischen Daten trainiert wurde, um eine bestimmte Aufgabe zu erfüllen, oft angepasst an die einzigartigen Bedürfnisse einer Person oder Organisation.
Datenerweiterung - Der Prozess der künstlichen Erhöhung der Menge oder Vielfalt von Trainingsdaten, was KI-Modellen hilft, besser auf neue Situationen zu verallgemeinern.
Datenmarkierung - Der Prozess des Hinzufügens beschreibender Tags zu Rohdaten, was KI-Systemen ermöglicht, aus markierten Beispielen zu lernen.
Datenvorverarbeitung - Der Prozess der Reinigung und Formatierung von Rohdaten, um sie für das KI-Modelltraining geeignet zu machen und Lernergebnisse zu verbessern.
Datensatz - Eine Sammlung von Informationen, die verwendet wird, um KI-Modelle zu trainieren und zu testen, was ihnen ermöglicht, Muster zu lernen und Vorhersagen zu treffen.
Deep Learning - Eine Technik des maschinellen Lernens, die neuronale Netze verwendet, um große Datenmengen zu analysieren und daraus zu lernen.
Deepfake - KI-Bildgenerierungstechnik, die eine Person in einem bestehenden Bild oder Video durch die Ähnlichkeit einer anderen Person ersetzt.
Diffusion - KI-Modell, das Bilder durch allmähliches Entrauschen zufälliger Muster erzeugt und hochwertige und vielfältige Ausgaben produziert.
Doppelter Abstieg - Ein Phänomen im maschinellen Lernen, bei dem die Modellleistung zunächst verbessert, dann verschlechtert und wieder verbessert wird, wenn die Modellkomplexität zunimmt.
Einbettung - Eine Technik des maschinellen Lernens, die diskrete Daten in Zahlenvektoren umwandelt, um KI-Modellen zu helfen, Beziehungen zwischen Elementen zu verstehen.
Emergenz - Ein Phänomen, bei dem komplexe KI-Verhaltensweisen aus einfachen Regeln oder Interaktionen entstehen, oft auf unerwartete Weise.
End-to-End-Lernen - Eine Technik des maschinellen Lernens, bei der ein Modell alle Schritte einer Aufgabe direkt vom Eingang bis zum Ausgang lernt, ohne manuell gestaltete Zwischenstufen.
Ethische KI - Richtlinien und Standards für die Entwicklung und den Einsatz von KI-Systemen auf eine Weise, die die Menschenrechte und Werte respektiert.
Erklärbare KI (XAI) - Ansätze, die KI-Entscheidungsprozesse für Menschen verständlich machen und so Transparenz und Vertrauen fördern.
Expertensysteme - KI-Programme, die menschliche Expertenentscheidungen in bestimmten Bereichen nachahmen und vordefinierte Regeln und Wissensdatenbanken verwenden.
Few-Shot-Learning - Eine Technik des maschinellen Lernens, bei der ein Modell trainiert wird, gute Leistungen mit nur einer kleinen Anzahl von Trainingsbeispielen zu erzielen.
Feinabstimmung - Der Prozess der Verfeinerung eines vortrainierten KI-Modells durch Training auf einem kleineren Datensatz, um die Leistung bei bestimmten Aufgaben zu verbessern.
Föderiertes Lernen - Ansatz zum Training von KI-Modellen über mehrere Geräte oder Server hinweg, wobei die Datenprivatsphäre durch lokale Beibehaltung der Rohdaten gewahrt wird.
Vorwärtspropagierung - Algorithmus im maschinellen Lernen, bei dem Eingabedaten durch die Schichten eines neuronalen Netzes fließen, um eine Ausgabe oder Vorhersage zu erzeugen.
Fundationsmodell - Großes KI-Modell, das auf umfangreichen Datenmengen trainiert wurde und als vielseitige Basis für verschiedene nachgelagerte Aufgaben dient. Fundationsmodelle kosten typischerweise Hunderte von Millionen Dollar zu trainieren.
Frequenzstrafe - Ein KI-Parameter, der das Modell davon abhält, wiederholt dieselben Wörter oder Phrasen zu generieren.
Generative KI - KI-Systeme, die neue Inhalte wie Bilder, Videos oder Text basierend auf gelernten Mustern aus ihren Trainingsdaten erstellen können.
Generativer vortrainierter Transformer (GPT) - Ein künstliches neuronales Netzwerk basierend auf der Transformer-Architektur, das menschenähnlichen Text erzeugen kann, indem es das nächste Wort in einer Sequenz vorhersagt.
Gradientenabstieg - Optimierungsmethode, die im maschinellen Lernen verwendet wird, um Modelle zu trainieren, indem Parameter wiederholt angepasst werden, um Fehler zu minimieren.
GPU - Spezialisierter Prozessor, optimiert für parallele Berechnung, um KI-Modelltraining und Inferenz zu beschleunigen.
Halluzinieren/Halluzination - Ein Phänomen, bei dem ein KI-Modell Inhalte generiert, die nicht in seinem Training enthalten sind, was zu unsinnigen oder falschen Ausgaben führt.
Versteckte Schicht - Die mittlere Schicht in einem neuronalen Netzwerk, die komplexe Merkmale aus den Eingabedaten lernt und darstellt.
Hyperparameter-Tuning - Der Prozess der Einstellung der optimalen Konfigurationseinstellungen für ein KI-Modell, um die beste Leistung zu erzielen.
Bildunterschriften - KI-Bildverarbeitungstechnik, die natürliche Sprachbeschreibungen des Inhalts in Bildern erzeugt.
Bildkolorierung - KI-Bildverarbeitungstechnik, die Graustufen- oder Schwarz-Weiß-Bildern Farbe hinzufügt.
Bildentrauschung - KI-Bildverarbeitungstechnik, die Rauschen oder unerwünschte Artefakte aus Bildern entfernt, um deren Qualität zu verbessern.
Bildgenerierung - KI-Bildverarbeitungstechnik zur Erstellung neuer Bilder von Grund auf, oft basierend auf Textbeschreibungen oder anderen Bildern.
Bild-Inpainting - KI-Bildverarbeitungstechnik zur Rekonstruktion fehlender oder beschädigter Teile eines Bildes.
Bilderkennung - KI-Bildverarbeitungstechnik, die Objekte oder Szenen in digitalen Bildern identifiziert und klassifiziert.
Bildsegmentierung - KI-Bildverarbeitungstechnik, die ein Bild in mehrere Segmente oder Objekte unterteilt und die Pixel identifiziert, die zu jedem gehören.
Bild-zu-Bild-Übersetzung - KI-Bildverarbeitungstechnik, die eine Bildeingabe (z.B. Foto) nimmt und sie verwendet, um ein neues Bild zu erzeugen.
Bild-Upscaling - KI-Bildverarbeitungstechnik, die die Auflösung eines Bildes erhöht, während sie die Qualität beibehält oder verbessert.
Inkrementelles Lernen - Fähigkeit eines KI-Systems, sein Wissen kontinuierlich aus neuen Daten zu aktualisieren, ohne zuvor gelernte Informationen zu vergessen.
Inferenz - Sobald ein KI-Modell trainiert wurde, ist Inferenz der Prozess der Verwendung des trainierten Modells zur Generierung neuer Vorhersagen oder Ausgaben.
Anweisungsabstimmung - Der Prozess der Anleitung eines vortrainierten Sprachmodells zur Produktion höherwertiger Ausgaben durch die Verwendung besserer Prompts und Beispiele.
Großes Sprachmodell (LLM) - Ein KI-Modell, das auf großen Textmengen trainiert wurde und menschenähnliche Sprache verstehen und erzeugen kann.
Latenter Raum - Eine komprimierte Darstellung von Daten, die von einem Modell gelernt wurde und die wichtigsten Merkmale und Muster erfasst.
Verlustfunktion - Eine Methode zur Quantifizierung des Unterschieds zwischen den vorhergesagten Ausgaben eines Modells und den tatsächlichen Werten.
Maschinelles Lernen (ML) - Eine Teilmenge der KI, die Algorithmen und Statistiken verwendet, um Muster zu identifizieren und Erkenntnisse aus Daten zu gewinnen, ohne explizite Programmierung.
Maschinelle Übersetzung - Der Einsatz von Algorithmen des maschinellen Lernens zur automatischen Übersetzung von Text von einer Sprache in eine andere.
Mixture of Experts - Ein KI-Modell, das mehrere spezialisierte Modelle (Experten) kombiniert, um verschiedene Teile eines Problems zu lösen, wobei ein Gating-Netzwerk den geeigneten Experten für eine bestimmte Eingabe auswählt.
Modellkompression - Techniken zur Reduzierung der Größe und des Rechenbedarfs von KI-Modellen, damit sie auf ressourcenbeschränkten Geräten eingesetzt werden können.
Modellbereitstellung - Der Prozess der Integration eines trainierten KI-Modells in eine Produktionsumgebung, um es für die reale Welt verfügbar zu machen.
Modellbewertung - Beurteilung der Leistung eines KI-Modells mithilfe von Testdaten, um sicherzustellen, dass es Genauigkeits- und Zuverlässigkeitsstandards erfüllt.
Modellerklärbarkeit - Techniken zum Verständnis und zur Interpretation, wie ein KI-Modell zu seinen Entscheidungen kommt, die Transparenz und Vertrauen fördern.
Modellinterpretierbarkeit - Techniken zur Messung, wie leicht Menschen die Begründung hinter den Vorhersagen eines KI-Modells verstehen können, was bei der Validierung und Verbesserung hilft.
Modellüberwachung - Kontinuierliche Beobachtung von eingesetzten KI-Modellen, um eine konsistente Leistung zu gewährleisten und potenzielle Probleme oder Abweichungen zu erkennen.
Modelltraining - Der Prozess, einem KI-Modell beizubringen, genaue Vorhersagen zu treffen, indem es markierten Beispielen ausgesetzt wird.
Modellversionierung - System zur Verfolgung verschiedener Iterationen von KI-Modellen, das die Zusammenarbeit erleichtert und bei Bedarf einen Rollback ermöglicht.
Multimodale KI - KI-Systeme, die Inhalte in gemischten Datenformaten (z.B. Text, Bilder, Audio) verarbeiten und ausgeben können.
Named Entity Recognition (NER) - Eine NLP-Technik, die benannte Entitäten (wie Personen, Organisationen, Orte) im Text identifiziert und klassifiziert.
Natural Language Processing (NLP) - Ein Teilbereich der KI, der sich darauf konzentriert, Computern das Verstehen, Interpretieren und Erzeugen menschlicher Sprache zu ermöglichen.
NeRF (Neural Radiance Fields) - Ein künstliches neuronales Netzwerk, das 3D-Szenen aus 2D-Bildern erstellt, indem es lernt, wie Licht aus verschiedenen Winkeln mit Objekten in der Szene interagiert.
Zielfunktion - Eine Methode, die in Optimierungsproblemen (wie maschinellem Lernen) verwendet wird, um das Ziel zu definieren, das der Algorithmus erreichen soll.
Überanpassung - Überanpassung tritt auf, wenn ein Modell zu eng mit seinen Trainingsdaten übereinstimmt und bei neuen Daten und Vorhersagen schlecht abschneidet.
Parameter - Die internen Einstellungen eines KI-Modells, die bestimmen, wie es Eingabedaten verarbeitet und Ausgaben erzeugt.
Part-of-Speech (POS) Tagging - Eine NLP-Technik, die Wörter in einem Text mit ihren grammatikalischen Kategorien (z.B. Substantiv, Verb, Adjektiv) kennzeichnet.
Präsenzstrafe - Ein KI-Parameter, der das Modell davon abhält, Wörter zu erzeugen, die bereits im vorherigen Text erschienen sind.
Vortraining - Die anfängliche Trainingsphase eines Sprachmodells auf einem großen Datensatz von Text und Code vor der Feinabstimmung auf eine bestimmte Aufgabe.
Prompt - Die anfängliche Texteingabe, die einem KI-Modell gegeben wird, die den Kontext setzt und die Ausgabe des Modells leitet.
Prompt-Engineering - Der Prozess des Entwerfens und Verfeinerns von Prompts, um die besten Antworten von KI-Modellen zu erhalten.
Prompt-Injektion - Die Handlung, bösartige KI-Prompts zu erstellen, um ein KI-Modell zu manipulieren, unbeabsichtigte oder schädliche Ausgaben zu erzeugen.
Prompt-Leaking - Ein Prompt-Injektionsangriff, der ein KI-Modell dazu bringt, seinen Systemprompt preiszugeben, der vertrauliche oder sensible Informationen enthalten kann.
Reinforcement Learning - Eine Technik des maschinellen Lernens, bei der ein Agent lernt, Entscheidungen zu treffen, indem er Belohnungen oder Strafen für Aktionen erhält, die in einer Umgebung durchgeführt werden.
Reinforcement Learning from Human Feedback (RLHF) - Eine KI-Technik, bei der menschliches Feedback verwendet wird, um den Lernprozess in Reinforcement-Learning-Algorithmen zu leiten.
Regularisierung - Eine KI-Technik, die verwendet wird, um Überanpassung zu verhindern, indem einem Modell des maschinellen Lernens Einschränkungen hinzugefügt werden.
Verantwortungsvolle KI by Design - Ansatz, der ethische Überlegungen und gesellschaftliche Auswirkungen in jede Phase der KI-Systementwicklung integriert.
RoBERTa (Robustly Optimized BERT Pretraining Approach) - Eine optimierte Version von BERT, die auf mehr Daten über längere Zeiträume trainiert wird, was zu besserer Leistung bei Textverständnisaufgaben führt.
Stimmungsanalyse - Eine NLP-Technik, die den emotionalen Ton oder die in einem Textstück ausgedrückte Meinung bestimmt.
Singularität - Hypothetischer Zeitpunkt, an dem KI die menschliche Intelligenz übertrifft, was zu unvorhersehbaren technologischen und gesellschaftlichen Folgen führt.
Stoppsequenzen - Spezifische Wörter oder Phrasen, die einem KI-Modell signalisieren, die Texterzeugung zu beenden.
Stiltransfer - KI-Bildverarbeitungstechnik, die den künstlerischen Stil eines Bildes auf den Inhalt eines anderen anwendet.
Überwachtes Lernen - Eine Technik des maschinellen Lernens, bei der ein Modell mit markierten Daten trainiert wird und lernt, die Ausgabe aus der Eingabe vorherzusagen.
Symbolische Künstliche Intelligenz - KI-Ansatz, der auf expliziter Darstellung von Wissen und logikbasiertem Denken basiert, im Gegensatz zu Methoden des maschinellen Lernens.
Temperatur - Ein KI-Parameter, der die Zufälligkeit der Ausgabe steuert; niedrigere Temperaturen machen Ausgaben vorhersehbarer, während höhere Temperaturen kreativere und unerwartete Ausgaben fördern.
TensorFlow - Open-Source-Softwarebibliothek für die Implementierung und Bereitstellung von Modellen des maschinellen Lernens auf verschiedenen Plattformen.
Token - Die kleinste bedeutungsvolle Einheit von Text, die ein KI-Modell verarbeiten kann, oft ein Zeichen oder ein Wort darstellend.
Token-Limit - Die maximale Anzahl von Tokens, die ein Sprachmodell in einer einzigen Eingabe verarbeiten oder in einer einzigen Ausgabe erzeugen kann.
Top-k-Sampling - Eine KI-Technik, die das nächste Wort aus den k wahrscheinlichsten Optionen auswählt, wodurch die Ausgabe vorhersehbarer bleibt.
Top-p (Nucleus-Sampling) - Eine KI-Technik, die das nächste Wort aus der kleinsten Menge der wahrscheinlichsten nächsten Wörter auswählt, deren kumulative Wahrscheinlichkeit einen Schwellenwert p überschreitet.
TPU - Von Google entwickelter kundenspezifischer Prozessor für die effiziente Ausführung von Workloads des maschinellen Lernens.
Transfer Learning - Eine Technik des maschinellen Lernens, bei der ein vortrainiertes Modell an eine neue, aber verwandte Aufgabe angepasst wird, wobei es sein vorhandenes Wissen nutzt.
Transformer - Eine Architektur künstlicher neuronaler Netze, die Beziehungen für sequentielle Daten verfolgen kann, um Eingabesequenzen in Ausgabesequenzen zu transformieren.
Turing-Test - Ein von Alan Turing vorgeschlagener Test für Intelligenz, bei dem Intelligenz als die Unfähigkeit eines Menschen definiert wird, zu bestimmen, ob er mit einem anderen Menschen oder einem Computer spricht.
Unteranpassung - Unteranpassung tritt auf, wenn ein Modell zu einfach ist, um die zugrundeliegenden Beziehungen in den Trainingsdaten zu erfassen, was zu schlechter Leistung bei neuen Daten führt.
Unüberwachtes Lernen - Eine Technik des maschinellen Lernens, die versteckte Muster oder intrinsische Strukturen in Eingabedaten ohne markierte Antworten findet.
Validierungsdaten - Ein separater Teil eines Datensatzes, der dem Modell während des Trainings nicht gezeigt wird, um die Leistung des Modells zu bewerten.
XLNet - Ein Sprachmodell, das das Kontextverständnis verbessert, indem es Wörter in jeder möglichen Reihenfolge vorhersagt.
Zero-Shot-Learning - Eine Technik des maschinellen Lernens, die sich auf die Fähigkeit eines trainierten Modells bezieht, korrekte Vorhersagen über neue Klassen oder Aufgaben zu treffen, die es während des Trainings noch nicht gesehen hat.