Wissen

KI-Glossar

Die wichtigsten KI-Begriffe – einfach erklärt. Für Unternehmer, Entscheider und alle, die verstehen wollen, worüber gerade alle reden.

KI (Künstliche Intelligenz)

Oberbegriff für Software, die menschenähnliche Aufgaben übernimmt – sprechen, schreiben, sehen, entscheiden.

KI ist kein einzelnes Programm, sondern ein Sammelbegriff. Dazu gehören klassische Algorithmen (Spamfilter, Routenplanung) genauso wie moderne Sprachmodelle (ChatGPT). Im Businesskontext meint „KI" heute meist generative KI – also Systeme, die Texte, Bilder oder Code erzeugen können.

KI-Agent (AI Agent)

Eine KI, die eigenständig mehrere Schritte ausführt – zum Beispiel eine Recherche durchführt und dann ein Dokument schreibt.

Ein normaler Chatbot antwortet auf Fragen. Ein Agent bekommt ein Ziel („Buche mir einen Flug") und plant die Schritte selbst, benutzt Tools wie Websuche oder Kalender, und arbeitet sich zum Ergebnis vor. Agenten sind gerade der große Trend – sind aber noch fehleranfällig und brauchen Überwachung.

API

Schnittstelle, über die zwei Programme miteinander sprechen. Fast jedes KI-Tool bietet eine API an.

Wenn du nicht über die Weboberfläche von ChatGPT arbeiten willst, sondern KI in deine eigene Software oder Website einbauen, nutzt du die API. Die Abrechnung läuft dann meist nach Nutzung (Tokens). APIs sind die Basis für Automatisierungen wie „wenn Kunde schreibt → KI antwortet automatisch".

AV-Vertrag (Auftragsverarbeitung)

Pflicht-Vertrag nach DSGVO, wenn ein Tool deine Kundendaten verarbeitet.

Sobald du bei einem KI-Tool Kundendaten eingibst (z.B. Namen, E-Mails, Chats), brauchst du einen AV-Vertrag mit dem Anbieter. Seriöse Tools stellen den zum Download bereit. Ohne AV-Vertrag: Abmahngefahr und DSGVO-Verstoß.

Bildgenerator

KI, die aus einer Textbeschreibung ein Bild erzeugt. Bekannte: DALL-E, Midjourney, Stable Diffusion.

Du tippst „Ein Handwerker mit Hammer, fotorealistisch" ein – und bekommst ein Bild. Qualität, Stil und Genauigkeit haben sich 2024/2025 drastisch verbessert. Für Marketing-Visuals, Social-Media-Posts und Mockups im Alltag brauchbar. Rechtlich heikel: Urheberrecht bei Trainingsdaten ist oft ungeklärt.

Chatbot

Ein Programm, mit dem du im Chat-Format sprichst – bekanntestes Beispiel: ChatGPT.

Früher waren Chatbots regel-basiert (stur, wenig flexibel). Heute stecken meist LLMs dahinter, die natürlich auf fast jede Eingabe reagieren. Chatbots auf Firmenwebsites beantworten Kundenfragen, übernehmen Erstkontakt oder qualifizieren Leads.

ChatGPT

Der bekannteste KI-Chatbot, entwickelt von OpenAI. Läuft unter chatgpt.com.

ChatGPT ist für viele das Synonym für „KI". Es gibt eine kostenlose Variante (GPT-4o mini, limitierte Nutzung) und kostenpflichtige Pläne (Plus ab 20 $/Monat, Enterprise für Firmen). Für DSGVO-sensible Daten: nur Enterprise oder Teams nutzen, Standard-ChatGPT liest mit.

Claude

KI-Chatbot von Anthropic – gilt als besonders gut bei langen Texten und Analyse.

Claude ist der Hauptkonkurrent von ChatGPT. Stärken: sehr großes Kontextfenster (kann ganze Bücher lesen), gut im logischen Denken, bei Code-Aufgaben oft überlegen. Server bisher in USA, aber Enterprise-Angebote mit EU-Option verfügbar.

DSGVO

Datenschutz-Grundverordnung – das EU-Gesetz, das regelt, wie personenbezogene Daten verarbeitet werden dürfen.

Bei KI-Tools wichtig: Wo werden die Daten gespeichert? Werden sie zum Training genutzt? Gibt es einen AV-Vertrag? „DSGVO-konform" ist kein offizielles Siegel, sondern bedeutet: Der Anbieter erfüllt die Kernpflichten. Bei sensiblen Daten (Gesundheit, Finanzen, öffentlicher Sektor) reicht das meist nicht – da muss zusätzlich Server-Standort und Zertifizierung geprüft werden.

Embedding

Eine mathematische Darstellung von Text, die seine Bedeutung erfasst. Basis für Semantik-Suche und RAG.

Ein Embedding ist eine Zahlenreihe (Vektor), die einen Text „verortet". Ähnliche Texte bekommen ähnliche Vektoren – auch wenn sie unterschiedliche Wörter benutzen. Dadurch kann KI verstehen, dass „Auto" und „PKW" dasselbe meinen. Gebraucht wird das unter anderem, um in großen Dokumenten nach Bedeutung zu suchen (statt nur nach Wörtern).

EU AI Act

Die EU-Verordnung zu KI – reguliert, welche KI-Anwendungen erlaubt sind und welche Pflichten Anbieter haben.

Seit 2024 in Kraft, mit gestaffelten Fristen bis 2027. Klassifiziert KI-Systeme nach Risiko (minimal, begrenzt, hoch, inakzeptabel). Für die meisten Unternehmen relevant: Transparenzpflicht bei generativer KI (User muss wissen, dass er mit einer KI spricht) und höhere Auflagen bei Einsatz in HR, Bildung oder kritischer Infrastruktur.

Fine-Tuning

Ein vortrainiertes KI-Modell mit eigenen Daten „nachschulen", damit es für einen speziellen Zweck besser funktioniert.

Beispiel: Ein LLM wird auf deine eigenen Support-Tickets nachtrainiert, damit es im Tonfall deines Unternehmens antwortet. Fine-Tuning ist aufwändig und nicht immer die richtige Lösung – oft reicht ein guter Prompt oder RAG (das ist günstiger und flexibler).

Gemini

Googles KI-Chatbot und Modell-Familie – eng verzahnt mit Google-Diensten (Gmail, Docs, Search).

Gemini ist der Nachfolger von Bard. Stärke: funktioniert besonders gut für Nutzer im Google-Ökosystem (Workspace, Gmail, YouTube). Kostenlos über gemini.google.com, kostenpflichtig über Google One AI Premium oder Google Workspace Business.

Generative KI

KI, die neue Inhalte erzeugt – Texte, Bilder, Audio, Videos, Code.

Der Begriff grenzt ab von „analytischer KI", die nur bestehendes analysiert (z.B. Spam erkennen). Generative KI ist das, worüber alle reden: ChatGPT, DALL-E, Midjourney, Suno. Sie produziert Outputs, die vorher nicht existierten.

Halluzination

Wenn eine KI überzeugt falsche Informationen ausgibt – obwohl sie sich ihrer Unwissenheit nicht bewusst ist.

Das größte Risiko bei KI-Nutzung. Ein LLM erfindet auf Nachfrage Urteile, Gesetze, Studien oder Kontaktdaten – und klingt dabei total überzeugt. Deshalb: Kritische Aussagen immer nachrecherchieren. Tools mit Quellenangabe (Perplexity, ChatGPT mit Websuche) sind sicherer.

Kontextfenster (Context Window)

Wie viel Text die KI auf einmal „lesen" und berücksichtigen kann.

Gemessen in Tokens. ChatGPT hat aktuell 128k Tokens (ca. 300 Seiten), Claude bis zu 200k. Das heißt: Du kannst lange Dokumente, ganze Code-Basen oder Chat-Verläufe einfügen, und die KI versteht alles gleichzeitig. Hinweis: Je mehr im Fenster, desto ungenauer wird die KI oft am Rand.

LLM (Large Language Model)

Ein „großes Sprachmodell" – die Technologie hinter ChatGPT, Claude und Gemini.

LLMs wurden auf gigantischen Textmengen (Bücher, Websites, Code) trainiert und lernen dabei Sprachmuster. Sie können dann selbst Texte erzeugen – Antworten auf Fragen, Übersetzungen, Zusammenfassungen, sogar Code. Technisch sind sie „Wahrscheinlichkeits-Vorhersagen": Welches Wort kommt als nächstes am wahrscheinlichsten?

Machine Learning

Teilgebiet der KI: Algorithmen, die aus Daten lernen statt fest programmiert zu sein.

Klassisches ML wird seit Jahrzehnten eingesetzt – für Spam-Erkennung, Betrugsprüfung, Produktempfehlungen. Deep Learning ist eine Unterkategorie mit neuronalen Netzen, auf der moderne LLMs basieren. Grob: Alle LLMs sind ML, aber nicht alle ML ist LLM.

Multimodal

Eine KI, die mehrere Medien-Arten versteht und erzeugt: Text, Bild, Audio, Video.

GPT-4o, Claude 3.5 und Gemini sind multimodal: Du kannst ein Foto hochladen und nach Inhalten fragen, oder per Sprache mit der KI reden, oder sie ein Diagramm erstellen lassen. Macht KI deutlich nützlicher im Alltag – z.B. Rezeptideen aus Kühlschrank-Fotos.

Open Source (bei KI)

KI-Modelle, deren Code und Gewichte öffentlich verfügbar sind – du kannst sie herunterladen und selbst betreiben.

Bekannte Open-Source-Modelle: Llama (Meta), Mistral (französisch), DeepSeek, Qwen. Vorteile: Datenschutz (läuft lokal), keine API-Kosten, volle Kontrolle. Nachteile: Du brauchst Server/GPUs und technisches Know-how. Für Unternehmen mit sensiblen Daten oft die einzige rechtskonforme Option.

Prompt

Die Eingabe, die du der KI gibst – deine Frage, Anweisung oder dein Text.

„Schreibe einen Werbetext für…" ist ein Prompt. Je präziser, desto besser das Ergebnis. Guter Prompt = Rolle festlegen + Aufgabe klar beschreiben + Format vorgeben + Beispiele geben. Ein guter Prompt macht den Unterschied zwischen „meh" und „wow".

Prompt Engineering

Die Kunst, Prompts so zu formulieren, dass die KI das liefert, was du wirklich willst.

Kein echter „Ingenieurs-Beruf", aber eine wertvolle Skill. Techniken: Rolle zuweisen („Du bist ein Steuerberater…"), Chain-of-Thought („Denk Schritt für Schritt…"), Few-Shot (Beispiele mitgeben), klare Struktur. Gute Prompt-Templates sind wiederverwendbar und machen Team-Arbeit effizienter.

RAG (Retrieval Augmented Generation)

Die KI bekommt vor der Antwort Zugriff auf deine eigenen Dokumente – und antwortet mit Quellen aus deinem Wissen.

Problem: Ein LLM weiß nichts über dein Unternehmen. Lösung: Du lädst deine Dokumente (Handbücher, FAQs, Verträge) in eine Datenbank, und die KI sucht erst dort, bevor sie antwortet. Vorteile: Aktuelle Infos, Quellenangabe, weniger Halluzinationen. Hinter fast allen „Chat-mit-deinen-Daten"-Tools steckt RAG.

Token

Die kleinste Einheit, in der KI Text zerlegt und verarbeitet. Viele KI-Anbieter rechnen pro Token ab.

Ein Token ist etwa 3-4 Zeichen oder ein halbes Wort. „Hallo, wie geht's?" sind etwa 6 Tokens. Wichtig für Kosten: Bei der OpenAI API zahlst du z.B. für Input-Tokens und Output-Tokens separat. Ein längeres Gespräch = mehr Tokens = höhere Rechnung.

Alles verstanden – was jetzt?

Finde das passende KI-Tool für dein Unternehmen – in 5 Fragen.

Tool-Finder starten →