Skip to content

AI-Lexikon

Verstehen Sie die wichtigsten AI-Begriffe. Von Strategie bis Technologie.

Keine Begriffe entsprechen Ihrer Suche.

Eine einheitliche, mit AI angereicherte Sicht auf Historie, Verhalten und Präferenzen eines Kunden über Systeme hinweg (CRM, Support, Marketing).

Mehr erfahren →

Ein offenes Kommunikationsprotokoll, das AI-Agenten verschiedener Anbieter und Frameworks zusammenarbeiten und Informationen plattformübergreifend austauschen lässt.

Mehr erfahren →

Ein Netzwerk vieler unabhängiger AI-Agenten, die dezentral zusammenarbeiten, um komplexe, großskalige Aufgaben zu lösen.

Mehr erfahren →

AI-Systeme mit einem Grad an Handlungsfähigkeit (Agency) - sie können planen, Entscheidungen treffen und Handlungen autonom ausführen, um ein Ziel zu erreichen.

Mehr erfahren →

Eine neue Form des Handels, bei der AI-Agenten selbstständig Recherchen durchführen, vergleichen und Käufe im Namen von Verbrauchern oder Unternehmen abschließen.

Mehr erfahren →

Die Disziplin und die Prozesse, die Kontrolle, Überwachung und Verantwortlichkeit über die Flotte autonomer AI-Agenten eines Unternehmens sicherstellen.

Mehr erfahren →

Eine Skalierungsmethode, bei der AI-Agenten mit anderen Agenten und Werkzeugen interagieren, um komplexe Aufgaben zu lösen - eine neue Phase über traditionelles Training und Inferenz hinaus.

Mehr erfahren →

Oberbegriff für Maschinen und Systeme, die Aufgaben ausführen können, die normalerweise menschliche Intelligenz erfordern (z. B. Problemlösung und Mustererkennung).

Mehr erfahren →

Ein autonomes AI-System, das nicht nur Fragen beantwortet, sondern aktiv Aktionen in anderen Softwaresystemen ausführen kann.

Mehr erfahren →

Eine Plattform oder ein Marktplatz, auf dem Unternehmen spezialisierte AI-Agenten für konkrete Geschäftsaufgaben finden, vergleichen und implementieren können.

Mehr erfahren →

AI Agent Standards (AI-Agentenstandards)

Gemeinsame Standards und Protokolle, die sicherstellen, dass AI-Agenten verschiedener Anbieter sicher kommunizieren und zusammenarbeiten können.

Begriff vertiefen

Je stärker Unternehmen AI-Agenten mehrerer Anbieter einsetzen, desto größer wird der Bedarf an Interoperabilität. NIST startete 2026 seine AI Agent Standards Initiative, die gemeinsame Rahmen für Sicherheit, Kommunikation und Datenaustausch zwischen Agenten definiert. Für Führungskräfte, die in Multi-Agent-Architekturen investieren, sind diese Standards entscheidend, um Vendor Lock-in zu vermeiden und sicherzustellen, dass Agenten Informationen systemübergreifend austauschen können.

Ein nachvollziehbares Protokoll über Entscheidungen, Modellversionen, Trainingsdaten und Änderungen, das die Revision eines AI-Systems ermöglicht.

Mehr erfahren →

Eine wirtschaftliche Begründung für ein AI-Projekt, die Implementierungskosten gegen erwarteten ROI, Zeitersparnis und höheren Umsatz abwägt.

Mehr erfahren →

Ein interdisziplinäres Team, das AI-Strategie, Standards, Governance und Best Practices im gesamten Unternehmen vorantreibt.

Mehr erfahren →

Der praktische Prozess, sicherzustellen, dass die Nutzung von AI in einem Unternehmen geltende Gesetze, Regeln und Branchenstandards erfüllt - einschließlich des EU AI Act.

Mehr erfahren →

Die Automatisierung der Inhaltserstellung (Text, Bilder, Video) für SEO, Social Media und E-Mail-Marketing mithilfe generativer AI.

Mehr erfahren →

Eine integrierte Infrastruktur, die den gesamten Lebenszyklus von AI-Trainingsdaten automatisiert - von Generierung und Augmentierung bis zu Qualitätskontrolle und Evaluierung im großen Maßstab.

Mehr erfahren →

Ein Rechenzentrum, das speziell dafür konzipiert und optimiert ist, AI-Modelle im großen Maßstab zu trainieren und auszuführen - eine Fabrik, die Intelligenz produziert.

Mehr erfahren →

Das interne Regelwerk, Framework und die Prozesse, die ein Unternehmen aufsetzt, um sicherzustellen, dass AI ethisch, sicher und rechtmäßig entwickelt und genutzt wird.

Mehr erfahren →

Algorithmen, die eingehende Leads automatisch bewerten und priorisieren, oft direkt in CRM-Systeme wie HubSpot integriert.

Mehr erfahren →

Das allgemeine Wissensniveau in der Organisation darüber, was AI kann und was nicht, damit Führungskräfte und Mitarbeitende qualifizierte Entscheidungen treffen können.

Mehr erfahren →

Die Nutzung von AI, um Marketingkampagnen kanalübergreifend zu automatisieren, zu optimieren und zeitlich zu steuern.

Mehr erfahren →

Die Fähigkeit von AI-Systemen, Kontext, Präferenzen und frühere Gespräche über Sitzungen hinweg zu speichern - im Gegensatz zu traditionellen stateless Modellen.

Mehr erfahren →

Die Art und Weise, wie ein Unternehmen Rollen, Verantwortlichkeiten, Prozesse und Technologien rund um AI organisiert, damit sie ein integrierter Teil des Geschäfts wird.

Mehr erfahren →

Eine Bewertung, wie bereit ein Unternehmen für die Implementierung von AI ist - gemessen an Daten, Infrastruktur, Kultur und Kompetenzen.

Mehr erfahren →

Eine kontrollierte Testumgebung, die von einer nationalen Behörde eingerichtet wird und in der Unternehmen innovative AI-Systeme unter Aufsicht der Behörde entwickeln und erproben können - bevor sie auf den Markt gebracht werden.

Mehr erfahren →

Der systematische Prozess, Risiken bei AI zu identifizieren, zu bewerten und zu mitigieren - von Datensicherheit und Bias bis zu regulatorischen Folgen.

Mehr erfahren →

Ein konkreter Plan, der die AI-Reise des Unternehmens über 12-36 Monate beschreibt - von Pilotprojekten bis zur vollständigen Skalierung.

Mehr erfahren →

Eine geschlossene, sichere Testumgebung, in der Mitarbeitende mit AI-Tools experimentieren können, ohne das Risiko, Daten ins Internet leaken zu lassen.

Mehr erfahren →

Eine integrierte Desktop- oder Mobilanwendung, die mehrere AI-Werkzeuge - Chat, Coding, Browsing und Agenten - in einer gemeinsamen Oberfläche vereint.

Mehr erfahren →

AI Tooling Layer

Die Schicht aus spezifischen Tools und Plugins, die einem AI-Agenten die Fähigkeit gibt, in externen Systemen Aktionen auszuführen.

Begriff vertiefen

Ohne einen Tooling Layer ist eine AI nur ein fortgeschrittener Gesprächspartner in einer Box. Im Tooling Layer passiert die Magie - er gibt dem Agenten 'Arme und Beine' in Form von Zugriff auf einen Webbrowser, einen Taschenrechner, E-Mails oder API-Aufrufe zum Aktualisieren des Kundenstatus in HubSpot.

Der Prozess, bei dem ein Unternehmen AI in seine Kernprozesse integriert, um das Geschäftsmodell zu verändern und zu optimieren.

Mehr erfahren →

Die systematische Arbeit, den Geschäftswert zu messen, zu dokumentieren und zu optimieren, den AI-Lösungen nach dem Go-live tatsächlich schaffen.

Mehr erfahren →

Die Steuerung und Koordination mehrerer AI-Komponenten und Workflows (z. B. RAG, Agenten, API-Aufrufe) in einer gemeinsamen Lösung.

Mehr erfahren →

AI-Selbstverifikation (AI Self-Verification)

Techniken, die es AI-Agenten ermöglichen, die Richtigkeit ihrer eigenen Antworten und Handlungen automatisch zu überprüfen.

Begriff vertiefen

Wenn AI-Agenten komplexe, mehrstufige Abläufe ausführen, steigt das Fehlerrisiko mit jedem Schritt. Selbstverifikation stattet die Agenten mit internen Feedback-Schleifen aus, die Output laufend mit bekannten Fakten und erwarteten Ergebnissen abgleichen. Im Jahr 2026 ist das zu einer Schlüsselfunktion geworden, um Agentic AI in Unternehmen zu skalieren, weil es den Bedarf an ständiger menschlicher Kontrolle senkt und das Vertrauen in autonome Prozesse erhöht.

Das Prinzip, dass eine Organisation oder Nation die Kontrolle über ihre AI-Systeme, Daten und Infrastruktur behält - unabhängig von ausländischen Anbietern und Cloud-Plattformen.

Mehr erfahren →

AI-Systemkategorisierung

Die Einteilung von AI-Systemen in Risikostufen (unakzeptabel, hoch, begrenzt, minimal) gemäß EU AI Act.

Begriff vertiefen

Der Kern des EU-Ansatzes. Systeme mit 'unakzeptablem Risiko' (z. B. Social Scoring) werden vollständig verboten. 'Hochrisiko'-Systeme unterliegen strengen Dokumentationspflichten. Die meisten Geschäftssysteme fallen unter 'minimales/begrenztes Risiko', erfordern aber dennoch Transparenz gegenüber dem Endnutzer (z. B. dass er mit einem Bot chattet).

AI-Tools, die Vertriebsmitarbeitern helfen, Meetings vorzubereiten, E-Mails zu schreiben, Kundengespräche zusammenzufassen und die nächsten Schritte vorzuschlagen.

Mehr erfahren →

Eingebaute Vorurteile oder Verzerrungen in einem AI-Modell, die meist entstehen, weil die Trainingsdaten mangelhaft oder voreingenommen waren.

Mehr erfahren →

Der Code, der es zwei Systemen (z. B. HubSpot und einem LLM) ermöglicht, miteinander zu kommunizieren und Daten auszutauschen.

Mehr erfahren →

Eine Prompting-Technik, bei der die AI aufgefordert wird, laut zu denken und ihre Zwischenschritte Schritt für Schritt zu erklären, bevor sie die endgültige Antwort gibt.

Mehr erfahren →

Organisatorische Maßnahmen, Schulung und Kommunikation, die nötig sind, damit Mitarbeitende neue AI-Lösungen in der Praxis akzeptieren und nutzen.

Mehr erfahren →

Der Prozess, bei dem lange Dokumente in kleinere, sinnvolle Einheiten (Chunks) zerlegt werden, bevor sie in eine AI-Datenbank aufgenommen werden.

Mehr erfahren →

AI-Modelle, die Kunden identifizieren, bei denen ein hohes Risiko besteht, dass sie ihr Abonnement kündigen oder das Unternehmen verlassen, bevor es passiert.

Mehr erfahren →

AI-Modelle, die mehrere Medientypen gleichzeitig verstehen und verarbeiten können, etwa Text, Bilder, Audio und Video.

Mehr erfahren →

AI-Dienste, die über das Internet von großen Anbietern (wie Google Cloud oder Azure) bereitgestellt werden und nur minimale lokale Infrastruktur erfordern.

Mehr erfahren →

Ein Ansatz, der mehrere AI-Techniken - z. B. Machine Learning, Wissensgraphen, NLP und regelbasierte Systeme - in einer gemeinsamen Lösung kombiniert, um komplexe Geschäftsprobleme zu lösen.

Mehr erfahren →

Eine Sicherheitstechnologie, die Daten schützt, während sie aktiv von AI-Modellen verarbeitet werden, indem Berechnungen in verschlüsselten Hardware-Enklaven ausgeführt werden.

Mehr erfahren →

Der formale Prozess, in dem bewertet wird, ob ein Hochrisiko-AI-System die Anforderungen des AI Act vor der Markteinführung erfüllt.

Mehr erfahren →

Ein AI-Sicherheitsansatz, bei dem das Modell durch einen Satz niedergeschriebener Prinzipien ('eine Verfassung') gesteuert wird und sich weitgehend selbst bewertet, statt ausschließlich von menschlichem Feedback abhängig zu sein.

Mehr erfahren →

Die Disziplin, den Kontext - Daten, Anweisungen und Gedächtnis -, den ein AI-Modell erhält, zu entwerfen und zu steuern, um präzise und relevante Antworten sicherzustellen.

Mehr erfahren →

Die maximale Menge an Text (Input plus Verlauf), die ein LLM gleichzeitig 'im Kopf' behalten kann.

Mehr erfahren →

Fortgeschrittene Chatbots und Sprachassistenten, die natürliche, dynamische Gespräche mit Kunden führen können, statt starren Regelwerken zu folgen.

Mehr erfahren →

Ein AI-Assistent, der Seite an Seite mit einem menschlichen Nutzer arbeitet, um die Produktivität zu steigern, aber die ständige Steuerung durch den Nutzer erfordert.

Mehr erfahren →

Veränderungen in der Verteilung der Eingabedaten im Zeitverlauf, die bestehende Modelle weniger zuverlässig machen können.

Mehr erfahren →

Anforderungen an Qualität, Repräsentativität und Dokumentation der Datensätze, die zum Trainieren, Validieren und Testen von AI-Modellen verwendet werden.

Mehr erfahren →

Die automatisierten Flows, die Daten sammeln, bereinigen, transformieren und an AI-Modelle liefern.

Mehr erfahren →

Wenn Angreifer Trainingsdaten oder RAG-Dokumente bewusst verunreinigen, sodass das AI-Modell falsche Muster lernt.

Mehr erfahren →

Der Schutz personenbezogener Daten (GDPR) im Zusammenhang mit der Erhebung von Trainingsdaten sowie Input und Output in AI-Modellen.

Mehr erfahren →

Eine fortgeschrittene Form von Machine Learning, inspiriert vom menschlichen Gehirn (neuronale Netze), die für komplexe Aufgaben wie Bild- und Spracherkennung eingesetzt wird.

Mehr erfahren →

Eine Sicherheitsstrategie, bei der mehrere Schutzschichten kombiniert werden, um das Risiko von AI-Systemen zu verringern - statt sich auf einen einzelnen Sicherheitsmechanismus zu verlassen.

Mehr erfahren →

Eine virtuelle Kopie eines physischen Objekts, Systems oder Prozesses, die mit Echtzeitdaten aktualisiert wird und für Simulation, Überwachung und Optimierung genutzt wird.

Mehr erfahren →

Eine neuere Methode, das Verhalten von AI-Modellen an menschliche Präferenzen anzupassen - einfacher und stabiler als der ältere RLHF-Ansatz.

Mehr erfahren →

Inhalte auf Website oder in E-Mails, die auf Basis des Verhaltens und Profils des Nutzers automatisch verändert werden - angetrieben von AI.

Mehr erfahren →

AI-Berechnungen, die direkt auf dem lokalen Gerät stattfinden (z. B. auf einem Smartphone, einer Produktionsmaschine oder in einem Auto) statt in der Cloud.

Mehr erfahren →

Numerische Repräsentationen von Text, Bildern oder anderen Objekten in einem mehrdimensionalen Raum.

Mehr erfahren →

Bezeichnung für AI-Lösungen, die für die gesamte Organisation entwickelt sind - über Abteilungen, Systeme und Prozesse hinweg - mit Fokus auf Skalierbarkeit, Governance und Geschäftswert.

Mehr erfahren →

Die EU-Gesetzgebung zu künstlicher Intelligenz (tritt 2026 vollständig in Kraft), die AI-Systeme in Risikoklassen einteilt und strenge Transparenzanforderungen stellt.

Mehr erfahren →

Evaluation Harness / Eval Suite

Ein automatisiertes Test-Setup, das Qualität, Genauigkeit und Sicherheit des Outputs eines AI-Modells systematisch bewertet.

Begriff vertiefen

Man bringt keine geschäftskritische Software ohne Tests live. Eine Eval Suite ist eine Bibliothek mit Hunderten vordefinierter Fragen, die man durch sein AI-Modell laufen lässt, jedes Mal wenn man z. B. den System Prompt aktualisiert hat. So stellt man sicher, dass eine Änderung das Modell nicht schlechter darin gemacht hat, andere Fragetypen zu beantworten.

AI-Systeme, die so gestaltet sind, dass Menschen verstehen können, wie und warum die AI eine bestimmte Entscheidung getroffen hat.

Mehr erfahren →

Eine zentrale Bibliothek für die Daten-Features, die über verschiedene AI-Modelle hinweg verwendet werden, sodass sie wiederverwendbar sind.

Mehr erfahren →

Eine Methode, AI-Modelle auf verteilten Datensätzen zu trainieren, ohne Rohdaten an einem Ort zu sammeln - das Modell reist zu den Daten statt umgekehrt.

Mehr erfahren →

Eine Prompting-Technik, bei der man der AI vor der eigentlichen Aufgabe ein paar Beispiele für die gewünschte Aufgabe und das gewünschte Output-Format gibt.

Mehr erfahren →

Der Prozess, bei dem man ein bestehendes AI-Modell nimmt und es auf unternehmensspezifischen Daten weitertrainiert.

Mehr erfahren →

Riesige, allgemeine AI-Modelle (wie GPT-4 oder Claude 3), die auf enormen Datenmengen trainiert wurden und die Basis für viele spezifische Anwendungen bilden.

Mehr erfahren →

Bezeichnung für die fortschrittlichsten und leistungsfähigsten AI-Modelle, die typischerweise von den größten AI-Laboren mit enormen Mengen an Daten und Rechenleistung trainiert werden.

Mehr erfahren →

Eine Art von AI, die auf Basis der Daten, mit denen sie trainiert wurde, neue Inhalte erzeugen kann - Text, Bilder, Code oder Audio.

Mehr erfahren →

Die Nutzung von AI, um Verkaufsgespräche oder Kundendienstgespräche automatisch zu transkribieren und Schlüsselthemen, Sentiment und nächste Schritte zu extrahieren.

Mehr erfahren →

Eine fortgeschrittene Weiterentwicklung von RAG, die semantische Suche mit Wissensgraphen kombiniert, um komplexe Beziehungen in Daten zu verstehen.

Mehr erfahren →

Die Technik, Antworten einer AI in spezifischen, verifizierbaren Quellen zu verankern, um erfundene Informationen (Halluzinationen) zu verhindern.

Mehr erfahren →

GRPO (Group Relative Policy Optimization)

Eine Trainingsmethode für große Sprachmodelle, die ihre Reasoning-Fähigkeit verbessert, indem das Modell mehrere Lösungen erzeugt und die besten verstärkt - ohne dass ein separates Bewertungsmodell nötig ist.

Begriff vertiefen

GRPO wurde als Schlüsseltechnik hinter DeepSeek R1 bekannt, einem der meistdiskutierten Reasoning-Modelle der Jahre 2025-2026. Während ältere Methoden wie PPO ein zusätzliches 'Kritiker-Modell' benötigen, um die Qualität von Antworten zu bewerten, vergleicht GRPO stattdessen Antworten innerhalb einer Gruppe miteinander und belohnt jene, die über dem Durchschnitt liegen. Das reduziert den Hardwareaufwand für das Training erheblich und macht fortgeschrittenes Reasoning für mehr Unternehmen zugänglich.

Regeln und Filter um ein LLM herum, die unerwünschtes Verhalten verhindern - z. B. das Leaken von Personendaten oder diskriminierenden Output.

Mehr erfahren →

Wenn ein AI-Sprachmodell Fakten erfindet oder selbstsichere, aber völlig falsche Antworten generiert.

Mehr erfahren →

AI-Systeme, die die Sicherheit oder grundlegende Rechte von Menschen beeinflussen können (z. B. AI für Recruiting oder Bonitätsbewertung).

Mehr erfahren →

Anforderungen und Praktiken, die sicherstellen, dass Menschen wichtige AI-Entscheidungen überwachen und übersteuern können - besonders in Hochrisiko-Szenarien.

Mehr erfahren →

Ein Systemdesign, bei dem menschliches Urteilsvermögen, Freigabe oder Feedback direkt in den Arbeitsprozess der AI integriert sind.

Mehr erfahren →

Ein Architekturansatz, der verschiedene AI-Modelle oder Bereitstellungsformen kombiniert - typischerweise lokale (Edge-) und cloudbasierte AI -, um die beste Balance aus Geschwindigkeit, Sicherheit und Kapazität zu erreichen.

Mehr erfahren →

Die Nutzung von AI, um Inhalte, Produktempfehlungen und Botschaften in Echtzeit auf den einzelnen Nutzer zuzuschneiden.

Mehr erfahren →

Der eigentliche Laufzeitpunkt, an dem ein AI-Modell Input entgegennimmt und Output erzeugt.

Mehr erfahren →

Invisible AI (Unsichtbare AI)

AI-Funktionalität, die so tief in bestehende Produkte und Dienste integriert ist, dass der Nutzer nicht aktiv erlebt, mit AI zu interagieren.

Begriff vertiefen

Im Gegensatz zu Chatbots und Co-Piloten, bei denen sich der Nutzer bewusst an die AI wendet, arbeitet unsichtbare AI im Hintergrund - z. B. bei automatischer E-Mail-Sortierung, intelligenter Suche oder dynamischer Preisgestaltung. Im Jahr 2026 beschleunigt sich dieser Trend, während Google, Microsoft und Apple generative AI direkt in ihre Plattformen einbauen. Für Unternehmen ist das ein strategischer Wandel: AI wird zu einer Standardkomponente statt zu einem separaten Projekt.

Der internationale Standard für ein Managementsystem zur verantwortungsvollen Nutzung von künstlicher Intelligenz - die AI-Antwort auf ISO 27001 für Informationssicherheit.

Mehr erfahren →

Methoden, mit denen ein Nutzer eine AI bewusst manipuliert, damit sie ihre eigenen ethischen und sicherheitsbezogenen Richtlinien bricht.

Mehr erfahren →

Ein zentralisiertes, strukturiertes Archiv des internen Wissens, der Dokumente und Daten eines Unternehmens, auf das AI-Systeme zugreifen können.

Mehr erfahren →

Eine Technik, bei der Wissen aus einem großen, komplexen AI-Modell in ein kleineres und schnelleres Modell übertragen wird, das den Großteil der ursprünglichen Qualität bewahrt.

Mehr erfahren →

Die Zeit, die vergeht, nachdem ein Nutzer eine Anfrage sendet, bis die AI eine Antwort zurückgibt.

Mehr erfahren →

Modelle, die die Wahrscheinlichkeit berechnen, dass ein Lead zum Kunden konvertiert - auf Basis von Verhalten, Demografie und Historie.

Mehr erfahren →

Große Sprachmodelle, die auf enormen Mengen an Textdaten trainiert wurden, um menschenähnliche Sprache verstehen und erzeugen zu können.

Mehr erfahren →

Logging & Traceability

Laufendes Logging von Input, Output und Modellversionen, damit eine AI-Entscheidung im Nachhinein untersucht werden kann.

Begriff vertiefen

Wenn ein autonomes System einen kritischen Fehler macht, funktioniert das Log wie die Black Box eines Flugzeugs. Nachvollziehbarkeit ist ein fundamentaler Bestandteil von Compliance. Man muss zurückverfolgen können, welche Modellversion an dem Tag lief und welche Daten der Entscheidung zugrunde lagen.

Eine Unterkategorie von AI, bei der Systeme aus Daten lernen und sich verbessern, ohne für jede einzelne Aufgabe explizit programmiert zu werden.

Mehr erfahren →

Ein Forschungsfeld innerhalb der AI-Sicherheit, das darauf abzielt, genau zu verstehen, wie die internen Neuronen und Schaltkreise eines AI-Modells bestimmte Antworten erzeugen.

Mehr erfahren →

Eine AI-Architektur, bei der mehrere spezialisierte Untermodelle ('Experten') zusammenarbeiten und für jede Aufgabe nur die relevantesten aktiviert werden.

Mehr erfahren →

MLOps (Machine Learning Operations)

Ein Set aus Praktiken und Werkzeugen, das den gesamten Lebenszyklus von ML-Modellen automatisiert und standardisiert.

Begriff vertiefen

So wie DevOps die Softwareentwicklung systematisiert hat, bringt MLOps die AI-Entwicklung in strukturierte Bahnen. Es stellt sicher, dass der Übergang vom Modellbau auf dem Rechner eines Data Scientists zu einem stabil und sicher laufenden Modell in der Produktionsumgebung des Unternehmens reibungslos und ohne Ausfallzeiten erfolgt.

Ein standardisiertes Dokumentationsblatt, das Zweck, Trainingsdaten, Einschränkungen und Testergebnisse eines AI-Modells beschreibt - und für Anbieter allgemeiner AI-Modelle unter dem EU AI Act inzwischen gesetzlich vorgeschrieben ist.

Mehr erfahren →

Ein offener Standard, der AI-Modelle mit externen Werkzeugen, Datenbanken und Geschäftssystemen verbindet - denken Sie daran wie an einen universellen Adapter zwischen AI und den Daten des Unternehmens.

Mehr erfahren →

Der Prozess, bei dem ein AI- oder ML-Modell von der Entwicklungsumgebung in den Betrieb überführt wird.

Mehr erfahren →

Wenn die Genauigkeit eines AI-Modells im Laufe der Zeit sinkt, weil sich die Welt und die Daten im Verhältnis zu seinen Trainingsdaten verändern.

Mehr erfahren →

Die laufende Überwachung der Performance eines AI-Modells in Produktion, um Fehler, Data Drift oder Bias zu erkennen.

Mehr erfahren →

Eine Optimierungstechnik, die die Größe und den Rechenbedarf eines AI-Modells reduziert, indem die Präzision seiner internen Zahlenrepräsentation gesenkt wird.

Mehr erfahren →

Ein Katalog aller AI-Modelle in der Organisation mit Versionen, Eigentümerschaft, Performance-Metriken und Freigabestatus.

Mehr erfahren →

Der Schutz von AI-Modellen vor Cyberangriffen wie Model Theft, Prompt Injection, Data Poisoning und Adversarial Attacks.

Mehr erfahren →

Eine Architektur, in der mehrere spezialisierte AI-Agenten zusammenarbeiten, um bei einer Aufgabe bessere Ergebnisse zu erzielen.

Mehr erfahren →

Ein Systemdesign, in dem mehrere spezialisierte AI-Agenten zusammenarbeiten, oft jeweils mit eigener Rolle und eigenen Werkzeugen.

Mehr erfahren →

NemoClaw

NVIDIAs Sicherheitsplattform für AI-Agenten, die Sandboxing, Zugriffskontrolle und Datenschutz für autonome AI-Systeme in Unternehmen ergänzt.

Begriff vertiefen

NemoClaw wurde auf der NVIDIA GTC 2026 angekündigt und adressiert eines der größten Sorgenkinder von Agentic AI: Sicherheit. Die Plattform betreibt AI-Agenten in isolierten Umgebungen mit kernelbasiertem Sandboxing und einem 'Privacy Router', der die gesamte Kommunikation überwacht. Für Unternehmen, die autonome AI-Agenten implementieren wollen, löst NemoClaw die Herausforderung, Agenten Zugriff auf sensible Systeme zu geben, ohne die Datensicherheit zu kompromittieren.

Nemotron

NVIDIAs Familie von Open-Source-Sprachmodellen, die für den Enterprise-Einsatz mit hoher Leistung und geringem Ressourcenverbrauch über eine Mixture-of-Experts-Architektur entwickelt wurden.

Begriff vertiefen

Nemotron 3 Super, vorgestellt auf der GTC 2026, hat insgesamt 120 Milliarden Parameter, nutzt aber dank Mixture-of-Experts-Technik nur 12 Milliarden pro Anfrage. Das macht das Modell geeignet für komplexe Multi-Agent-Szenarien, in denen starkes Reasoning ohne enorme Infrastrukturkosten nötig ist. Für Unternehmen ist Nemotron interessant, weil es Open Source ist und On-premise betrieben werden kann - wichtig für Organisationen mit strengen Anforderungen an Datensicherheit und Souveränität.

Eine AI-getriebene Empfehlung für die relevanteste nächste Handlung gegenüber einem Kunden - z. B. welches Angebot oder welcher Inhalt jetzt folgen sollte.

Mehr erfahren →

NIM (NVIDIA Inference Microservices)

NVIDIAs Plattform aus voroptimierten Containern, die es einfach macht, AI-Modelle in Produktion auf NVIDIA-Hardware zu deployen und auszuführen.

Begriff vertiefen

NIM liefert fertig verpackte Microservices für populäre AI-Modelle - von großen Sprachmodellen bis zu multimodalen und agentbasierten Systemen -, sodass Entwickler vom Experiment zur Produktion kommen, ohne die Infrastruktur manuell optimieren zu müssen. Für IT-Entscheider reduziert NIM die technische Komplexität des internen Hostings von AI und ermöglicht es, die Inference-Schicht organisationsweit zu standardisieren.

Die Fähigkeit, die inneren Prozesse eines AI-Systems in Echtzeit zu überwachen, zu messen und zu verstehen, um Qualität, Performance und Sicherheit sicherzustellen.

Mehr erfahren →

AI-Systeme, die Hunderte Sprachen verstehen und verarbeiten können, einschließlich unterrepräsentierter Sprachen, ohne für jede Sprache ein separates Modell zu benötigen.

Mehr erfahren →

AI-Lösungen, die lokal auf den eigenen Servern des Unternehmens gehostet werden statt in der Cloud.

Mehr erfahren →

AI-Modelle, deren Quellcode frei verfügbar ist, was Unternehmen große Freiheit gibt, sie anzupassen und lokal zu hosten.

Mehr erfahren →

Ein Open-Source-Werkzeug bzw. Framework, das dafür entwickelt wurde, AI-Agenten tief mit digitalen Umgebungen interagieren zu lassen und Daten effizient zu extrahieren.

Mehr erfahren →

Die Software-Infrastruktur, die verschiedene AI-Modelle, Datenbanken, APIs und Benutzeroberflächen zu einer funktionierenden Gesamtlösung verbindet.

Mehr erfahren →

Persistent Agent (Persistenter AI-Agent)

Ein AI-Agent, der kontinuierlich im Hintergrund läuft, statt nur auf einzelne Anfragen zu reagieren - immer an, immer bereit.

Begriff vertiefen

Während traditionelle AI-Assistenten vom Nutzer aktiviert werden und den Kontext danach vergessen, behalten persistente Agenten laufend den Überblick über Dateien, Kalender, E-Mails und Workflows. Perplexity und Microsoft führten 2026 solche Agenten ein, die lokal auf dem Computer des Nutzers laufen. Für Unternehmen eröffnet das Möglichkeiten für automatisierte Überwachung, proaktive Empfehlungen und Aufgaben, die ausgeführt werden, ohne dass jemand explizit darum bitten muss.

AI-Systeme, die dafür entwickelt wurden, die physische Welt zu verstehen und mit ihr zu interagieren - von Robotern und autonomen Fahrzeugen bis zur industriellen Automatisierung.

Mehr erfahren →

Automatisierte Prozesse, die personenbezogene Informationen (PII) aus Daten entfernen oder unkenntlich machen, bevor sie an ein AI-Modell gesendet werden.

Mehr erfahren →

AI, die historische Daten analysiert, um zukünftige Ereignisse vorherzusagen - z. B. welche Leads dem Kauf am nächsten sind.

Mehr erfahren →

Eine Technik, bei der mehrere Prompts in einer Sequenz miteinander verbunden werden, sodass der Output eines Schritts zum Input des nächsten wird.

Mehr erfahren →

Die Kunst, präzise und effektive Anweisungen (Prompts) für ein AI-Modell zu formulieren, um den bestmöglichen Output zu erhalten.

Mehr erfahren →

Ein Sicherheitsangriff, bei dem böswillige Anweisungen im Input versteckt werden, um ein LLM dazu zu bringen, Regeln zu ignorieren und unerwünschte Handlungen auszuführen.

Mehr erfahren →

Eine wiederverwendbare Prompt-Struktur mit Platzhaltern, die in Workflows und Integrationen dynamisch ausgefüllt werden kann.

Mehr erfahren →

Ein kleines, abgegrenztes AI-Projekt, das in der Praxis getestet wird, um zu beweisen, dass die Technologie funktioniert und Wert schafft, bevor sie vollständig ausgerollt wird.

Mehr erfahren →

Eine Methode, bei der ein Sprachmodell mit den eigenen, geschlossenen Daten des Unternehmens verbunden wird, um Halluzinationen zu vermeiden.

Mehr erfahren →

Eine neue Kategorie von AI-Modellen, die dafür entwickelt wurden, komplexe Probleme 'Schritt für Schritt zu durchdenken', statt Antworten sofort zu generieren.

Mehr erfahren →

Kontrollierte Tests, bei denen Experten bewusst versuchen, eine AI zu schädlichem Verhalten zu bringen, um Sicherheitslücken zu schließen.

Mehr erfahren →

Der Prozess und die Infrastruktur, die relevante Informationen aus der Wissensbasis eines Unternehmens heraussuchen, um ein AI-Modell mit Kontext zu versorgen.

Mehr erfahren →

Risk Management System (AI Act)

Anforderung im EU AI Act, dass Hochrisiko-AI-Systeme ein dokumentiertes Risikomanagementsystem haben müssen, das laufend aktualisiert wird.

Begriff vertiefen

Das ist keine einmalige Übung, sondern ein kontinuierliches, iteratives System. Rechtlich ist man verpflichtet, Prozesse zu betreiben, die das System *nach* dem Launch überwachen, damit es bei unbeabsichtigten gefährlichen Nutzungsmustern blitzschnell zurückgezogen oder aktualisiert werden kann.

Eine Suchtechnik, bei der AI die Bedeutung hinter einer Frage versteht und nicht nur exakte Keywords abgleicht.

Mehr erfahren →

Die Nutzung von AI-Tools durch Mitarbeitende ohne formale Genehmigung oder Überwachung durch die IT-Abteilung.

Mehr erfahren →

Kleinere und stärker spezialisierte Sprachmodelle, die deutlich weniger Rechenleistung und Daten benötigen als massive LLMs.

Mehr erfahren →

Das kollektive Verhalten und die Problemlösungsfähigkeit, die entstehen, wenn viele einfache AI-Agenten miteinander interagieren.

Mehr erfahren →

Swarm Orchestration

Die Steuerung und Koordination einer Gruppe von AI-Agenten (eines Schwarms), damit sie auf ein gemeinsames Ziel hinarbeiten, ohne sich gegenseitig zu behindern.

Begriff vertiefen

Wenn Dutzende Agenten kreuz und quer arbeiten, braucht es eine Form der Steuerung. Swarm Orchestration verteilt Ressourcen, löst Konflikte (wenn zwei Agenten dieselben Daten ändern wollen) und sammelt die Endergebnisse ein, damit der Prozess effizient und kostenbewusst bleibt.

Künstlich erzeugte Daten, die statistisch echten Daten ähneln, aber keine echten personenbezogenen Informationen enthalten.

Mehr erfahren →

Die übergeordnete Anweisung, die festlegt, wie sich ein Sprachmodell verhalten soll, bevor der Nutzer Fragen stellt.

Mehr erfahren →

Technical Documentation (AI Act)

Die Dokumentation, die ein Unternehmen für ein AI-System vorlegen muss - einschließlich Zweck, Datensätzen, Modellen, Tests und Kontrollmechanismen.

Begriff vertiefen

Behörden können anklopfen und einen Nachweis der Compliance verlangen. Man muss eine 'Gebrauchsanweisung' für das System haben, die die Systemarchitektur, die Trainingsdatensätze und die Ergebnisse von Leistungs- und Bias-Tests beschreibt. Das erfordert große Disziplin in der Entwicklungsabteilung.

Eine Einstellung in Sprachmodellen, die den Grad an Zufälligkeit und 'Kreativität' in den Antworten der AI steuert.

Mehr erfahren →

Eine Technik, bei der das AI-Modell zusätzliche Rechenzeit nutzt, um über schwierige Fragen 'länger nachzudenken', statt sofort zu antworten - das verbessert die Präzision deutlich.

Mehr erfahren →

Eine generative AI-Technologie, die Videosequenzen direkt aus Textbeschreibungen erzeugt - von einfachen Animationen bis zu realistischen Filmszenen.

Mehr erfahren →

Der kleinste Baustein von Text (typischerweise ein Wort oder eine Silbe), den ein Sprachmodell liest und erzeugt.

Mehr erfahren →

Wenn ein LLM automatisch externe Werkzeuge oder APIs aufrufen kann, um Aktionen auszuführen und Live-Daten abzurufen.

Mehr erfahren →

Die Methode, AI-Anwendungsfälle auf Basis von potenziellem Geschäftswert, technischer Komplexität und Risiko auszuwählen und zu priorisieren.

Mehr erfahren →

Eine spezialisierte Datenbank zum Speichern numerischer Vektorrepräsentationen (Embeddings) von Daten, die semantische Suche ermöglicht.

Mehr erfahren →

Vera Rubin (NVIDIA GPU-Architektur)

NVIDIAs nächste Generation von GPU-Architektur nach Blackwell, ausgelegt darauf, bis zu zehnmal bessere Energieeffizienz pro AI-Berechnung zu liefern.

Begriff vertiefen

Vera Rubin nutzt eine neue CG-HBM-Technologie, bei der Speicher direkt auf dem Chip gestapelt wird, was eine drei- bis vierfach höhere AI-Rechendichte als beim Vorgänger ermöglicht. Für Unternehmen bedeutet das niedrigere Betriebskosten und die Möglichkeit, fortgeschrittenere AI-Modelle in eigenen Rechenzentren zu betreiben. Die Architektur wurde auf der NVIDIA GTC 2026 vorgestellt und dürfte den Standard für die nächste Welle von Enterprise-AI-Infrastruktur setzen.

Die Praxis, AI mit Fokus auf Ethik, Transparenz und Fairness zu designen und zu implementieren.

Mehr erfahren →

Eine AI-unterstützte Entwicklungsmethode, bei der man gewünschte Funktionalität in natürlicher Sprache beschreibt und die AI den Code erzeugen lässt - der Fokus verschiebt sich vom Schreiben von Code zur Steuerung des Ergebnisses.

Mehr erfahren →

Ein AI-Modell, das eine interne Repräsentation der physischen Welt aufbaut und vorhersagen kann, wie sich Objekte und Umgebungen im Zeitverlauf verhalten.

Mehr erfahren →

Ein Sicherheitsrahmen, der das Zero-Trust-Prinzip auf AI-Systeme ausweitet - keine AI-Komponente vertraut automatisch einer anderen, und jeder Zugriff wird laufend verifiziert.

Mehr erfahren →

Die Fähigkeit eines AI-Modells, eine Aufgabe auszuführen, für die es nie explizit trainiert wurde und von der es zuvor keine Beispiele gesehen hat.

Mehr erfahren →