KI (Künstliche Intelligenz)
Oberbegriff für Software, die menschenähnliche Aufgaben übernimmt – sprechen, schreiben, sehen, entscheiden.
KI ist kein einzelnes Programm, sondern ein Sammelbegriff. Dazu gehören klassische Algorithmen (Spamfilter, Routenplanung) genauso wie moderne Sprachmodelle (ChatGPT). Im Businesskontext meint „KI" heute meist generative KI – also Systeme, die Texte, Bilder oder Code erzeugen können.
Siehe auch: LLM, Machine Learning, Generative KI
KI-Agent (AI Agent)
Eine KI, die eigenständig mehrere Schritte ausführt – zum Beispiel eine Recherche durchführt und dann ein Dokument schreibt.
Ein normaler Chatbot antwortet auf Fragen. Ein Agent bekommt ein Ziel („Buche mir einen Flug") und plant die Schritte selbst, benutzt Tools wie Websuche oder Kalender, und arbeitet sich zum Ergebnis vor. Agenten sind gerade der große Trend – sind aber noch fehleranfällig und brauchen Überwachung.
Siehe auch: LLM, Prompt
API
Schnittstelle, über die zwei Programme miteinander sprechen. Fast jedes KI-Tool bietet eine API an.
Wenn du nicht über die Weboberfläche von ChatGPT arbeiten willst, sondern KI in deine eigene Software oder Website einbauen, nutzt du die API. Die Abrechnung läuft dann meist nach Nutzung (Tokens). APIs sind die Basis für Automatisierungen wie „wenn Kunde schreibt → KI antwortet automatisch".
AV-Vertrag (Auftragsverarbeitung)
Pflicht-Vertrag nach DSGVO, wenn ein Tool deine Kundendaten verarbeitet.
Sobald du bei einem KI-Tool Kundendaten eingibst (z.B. Namen, E-Mails, Chats), brauchst du einen AV-Vertrag mit dem Anbieter. Seriöse Tools stellen den zum Download bereit. Ohne AV-Vertrag: Abmahngefahr und DSGVO-Verstoß.
Siehe auch: DSGVO
Bildgenerator
KI, die aus einer Textbeschreibung ein Bild erzeugt. Bekannte: DALL-E, Midjourney, Stable Diffusion.
Du tippst „Ein Handwerker mit Hammer, fotorealistisch" ein – und bekommst ein Bild. Qualität, Stil und Genauigkeit haben sich 2024/2025 drastisch verbessert. Für Marketing-Visuals, Social-Media-Posts und Mockups im Alltag brauchbar. Rechtlich heikel: Urheberrecht bei Trainingsdaten ist oft ungeklärt.
Siehe auch: Generative KI, Multimodal
Chatbot
Ein Programm, mit dem du im Chat-Format sprichst – bekanntestes Beispiel: ChatGPT.
Früher waren Chatbots regel-basiert (stur, wenig flexibel). Heute stecken meist LLMs dahinter, die natürlich auf fast jede Eingabe reagieren. Chatbots auf Firmenwebsites beantworten Kundenfragen, übernehmen Erstkontakt oder qualifizieren Leads.
Siehe auch: LLM, KI-Agent
ChatGPT
Der bekannteste KI-Chatbot, entwickelt von OpenAI. Läuft unter chatgpt.com.
ChatGPT ist für viele das Synonym für „KI". Es gibt eine kostenlose Variante (GPT-4o mini, limitierte Nutzung) und kostenpflichtige Pläne (Plus ab 20 $/Monat, Enterprise für Firmen). Für DSGVO-sensible Daten: nur Enterprise oder Teams nutzen, Standard-ChatGPT liest mit.
Siehe auch: LLM, Claude, Gemini
Claude
KI-Chatbot von Anthropic – gilt als besonders gut bei langen Texten und Analyse.
Claude ist der Hauptkonkurrent von ChatGPT. Stärken: sehr großes Kontextfenster (kann ganze Bücher lesen), gut im logischen Denken, bei Code-Aufgaben oft überlegen. Server bisher in USA, aber Enterprise-Angebote mit EU-Option verfügbar.
Siehe auch: ChatGPT, Kontextfenster
DSGVO
Datenschutz-Grundverordnung – das EU-Gesetz, das regelt, wie personenbezogene Daten verarbeitet werden dürfen.
Bei KI-Tools wichtig: Wo werden die Daten gespeichert? Werden sie zum Training genutzt? Gibt es einen AV-Vertrag? „DSGVO-konform" ist kein offizielles Siegel, sondern bedeutet: Der Anbieter erfüllt die Kernpflichten. Bei sensiblen Daten (Gesundheit, Finanzen, öffentlicher Sektor) reicht das meist nicht – da muss zusätzlich Server-Standort und Zertifizierung geprüft werden.
Siehe auch: AV-Vertrag, EU AI Act
Embedding
Eine mathematische Darstellung von Text, die seine Bedeutung erfasst. Basis für Semantik-Suche und RAG.
Ein Embedding ist eine Zahlenreihe (Vektor), die einen Text „verortet". Ähnliche Texte bekommen ähnliche Vektoren – auch wenn sie unterschiedliche Wörter benutzen. Dadurch kann KI verstehen, dass „Auto" und „PKW" dasselbe meinen. Gebraucht wird das unter anderem, um in großen Dokumenten nach Bedeutung zu suchen (statt nur nach Wörtern).
Siehe auch: RAG, LLM
EU AI Act
Die EU-Verordnung zu KI – reguliert, welche KI-Anwendungen erlaubt sind und welche Pflichten Anbieter haben.
Seit 2024 in Kraft, mit gestaffelten Fristen bis 2027. Klassifiziert KI-Systeme nach Risiko (minimal, begrenzt, hoch, inakzeptabel). Für die meisten Unternehmen relevant: Transparenzpflicht bei generativer KI (User muss wissen, dass er mit einer KI spricht) und höhere Auflagen bei Einsatz in HR, Bildung oder kritischer Infrastruktur.
Siehe auch: DSGVO
Fine-Tuning
Ein vortrainiertes KI-Modell mit eigenen Daten „nachschulen", damit es für einen speziellen Zweck besser funktioniert.
Beispiel: Ein LLM wird auf deine eigenen Support-Tickets nachtrainiert, damit es im Tonfall deines Unternehmens antwortet. Fine-Tuning ist aufwändig und nicht immer die richtige Lösung – oft reicht ein guter Prompt oder RAG (das ist günstiger und flexibler).
Siehe auch: RAG, Prompt Engineering
Gemini
Googles KI-Chatbot und Modell-Familie – eng verzahnt mit Google-Diensten (Gmail, Docs, Search).
Gemini ist der Nachfolger von Bard. Stärke: funktioniert besonders gut für Nutzer im Google-Ökosystem (Workspace, Gmail, YouTube). Kostenlos über gemini.google.com, kostenpflichtig über Google One AI Premium oder Google Workspace Business.
Siehe auch: ChatGPT, Claude
Generative KI
KI, die neue Inhalte erzeugt – Texte, Bilder, Audio, Videos, Code.
Der Begriff grenzt ab von „analytischer KI", die nur bestehendes analysiert (z.B. Spam erkennen). Generative KI ist das, worüber alle reden: ChatGPT, DALL-E, Midjourney, Suno. Sie produziert Outputs, die vorher nicht existierten.
Siehe auch: LLM, Bildgenerator
Halluzination
Wenn eine KI überzeugt falsche Informationen ausgibt – obwohl sie sich ihrer Unwissenheit nicht bewusst ist.
Das größte Risiko bei KI-Nutzung. Ein LLM erfindet auf Nachfrage Urteile, Gesetze, Studien oder Kontaktdaten – und klingt dabei total überzeugt. Deshalb: Kritische Aussagen immer nachrecherchieren. Tools mit Quellenangabe (Perplexity, ChatGPT mit Websuche) sind sicherer.
Siehe auch: RAG, LLM
Kontextfenster (Context Window)
Wie viel Text die KI auf einmal „lesen" und berücksichtigen kann.
Gemessen in Tokens. ChatGPT hat aktuell 128k Tokens (ca. 300 Seiten), Claude bis zu 200k. Das heißt: Du kannst lange Dokumente, ganze Code-Basen oder Chat-Verläufe einfügen, und die KI versteht alles gleichzeitig. Hinweis: Je mehr im Fenster, desto ungenauer wird die KI oft am Rand.
Siehe auch: Token, LLM
LLM (Large Language Model)
Ein „großes Sprachmodell" – die Technologie hinter ChatGPT, Claude und Gemini.
LLMs wurden auf gigantischen Textmengen (Bücher, Websites, Code) trainiert und lernen dabei Sprachmuster. Sie können dann selbst Texte erzeugen – Antworten auf Fragen, Übersetzungen, Zusammenfassungen, sogar Code. Technisch sind sie „Wahrscheinlichkeits-Vorhersagen": Welches Wort kommt als nächstes am wahrscheinlichsten?
Siehe auch: Token, Prompt, Generative KI
Machine Learning
Teilgebiet der KI: Algorithmen, die aus Daten lernen statt fest programmiert zu sein.
Klassisches ML wird seit Jahrzehnten eingesetzt – für Spam-Erkennung, Betrugsprüfung, Produktempfehlungen. Deep Learning ist eine Unterkategorie mit neuronalen Netzen, auf der moderne LLMs basieren. Grob: Alle LLMs sind ML, aber nicht alle ML ist LLM.
Siehe auch: KI, LLM
Multimodal
Eine KI, die mehrere Medien-Arten versteht und erzeugt: Text, Bild, Audio, Video.
GPT-4o, Claude 3.5 und Gemini sind multimodal: Du kannst ein Foto hochladen und nach Inhalten fragen, oder per Sprache mit der KI reden, oder sie ein Diagramm erstellen lassen. Macht KI deutlich nützlicher im Alltag – z.B. Rezeptideen aus Kühlschrank-Fotos.
Siehe auch: LLM, Generative KI
Open Source (bei KI)
KI-Modelle, deren Code und Gewichte öffentlich verfügbar sind – du kannst sie herunterladen und selbst betreiben.
Bekannte Open-Source-Modelle: Llama (Meta), Mistral (französisch), DeepSeek, Qwen. Vorteile: Datenschutz (läuft lokal), keine API-Kosten, volle Kontrolle. Nachteile: Du brauchst Server/GPUs und technisches Know-how. Für Unternehmen mit sensiblen Daten oft die einzige rechtskonforme Option.
Siehe auch: LLM, DSGVO
Prompt
Die Eingabe, die du der KI gibst – deine Frage, Anweisung oder dein Text.
„Schreibe einen Werbetext für…" ist ein Prompt. Je präziser, desto besser das Ergebnis. Guter Prompt = Rolle festlegen + Aufgabe klar beschreiben + Format vorgeben + Beispiele geben. Ein guter Prompt macht den Unterschied zwischen „meh" und „wow".
Siehe auch: Prompt Engineering
Prompt Engineering
Die Kunst, Prompts so zu formulieren, dass die KI das liefert, was du wirklich willst.
Kein echter „Ingenieurs-Beruf", aber eine wertvolle Skill. Techniken: Rolle zuweisen („Du bist ein Steuerberater…"), Chain-of-Thought („Denk Schritt für Schritt…"), Few-Shot (Beispiele mitgeben), klare Struktur. Gute Prompt-Templates sind wiederverwendbar und machen Team-Arbeit effizienter.
Siehe auch: Prompt, LLM
RAG (Retrieval Augmented Generation)
Die KI bekommt vor der Antwort Zugriff auf deine eigenen Dokumente – und antwortet mit Quellen aus deinem Wissen.
Problem: Ein LLM weiß nichts über dein Unternehmen. Lösung: Du lädst deine Dokumente (Handbücher, FAQs, Verträge) in eine Datenbank, und die KI sucht erst dort, bevor sie antwortet. Vorteile: Aktuelle Infos, Quellenangabe, weniger Halluzinationen. Hinter fast allen „Chat-mit-deinen-Daten"-Tools steckt RAG.
Siehe auch: Embedding, Fine-Tuning, Halluzination
Token
Die kleinste Einheit, in der KI Text zerlegt und verarbeitet. Viele KI-Anbieter rechnen pro Token ab.
Ein Token ist etwa 3-4 Zeichen oder ein halbes Wort. „Hallo, wie geht's?" sind etwa 6 Tokens. Wichtig für Kosten: Bei der OpenAI API zahlst du z.B. für Input-Tokens und Output-Tokens separat. Ein längeres Gespräch = mehr Tokens = höhere Rechnung.
Siehe auch: LLM, Kontextfenster