Der Kopf der KI

Jede KI hat einen begrenzten Arbeitsspeicher — das Kontextfenster. Alles was ihr schreibt, alles was die KI antwortet, und alles was ihr hochladet — muss dort hineinpassen.

Wähle ein Modell:

Kontextfenster
System Prompt
Deine Eingabe
KI-Antwort
Knowledge
Freier Platz
128.000 Tokens
Belegt: 0 Tokens
Frei: 128.000 Tokens
Auslastung: 0%

Fülle den Kopf:

500 Tokens
Anweisungen an den Agenten ("Du bist ein freundlicher Assistent...")
0 Tokens
Hochgeladene PDFs, Texte, Tabellen
0 Tokens
Alle bisherigen Nachrichten in dieser Sitzung
100 Tokens
Das was du gerade schreibst

Was ist ein Token?

0 Tokens ≈ 0 Wörter
🇩🇪 Deutsch braucht ~30% mehr Tokens als Englisch
📐 1 Token ≈ 0,75 Wörter (EN) / ≈ 0,5 Wörter (DE)
💰 Mehr Tokens = höhere Kosten + schneller am Limit

Die Entwicklung des Kontextfensters

2022
GPT-3.5 — 4K Tokens ≈ 3 Seiten Text
2023
GPT-4 — 32K Tokens ≈ 25 Seiten
2023
Claude 2 — 100K Tokens ≈ ein kurzes Buch
2024
GPT-4o / Claude 3 — 128–200K ≈ ein Buch
2024
Gemini 1.5 — 1M Tokens ≈ 8 Bücher
2025
Gemini 2.0 / Claude Sonnet 4 — 1M–2M / 200K ≈ 8–15 Bücher (Gemini) / ≈ 1 Buch (Claude)
2026
GPT-4.1 / Gemini 2.5 Pro / Claude Opus 4.6 Bis zu 2M Tokens — GPT-4.1 erstmals 1M via API!

Die Sinne der KI

Moderne KI kann nicht nur Text — sie versteht Bilder, liest PDFs und hört Sprache. Aber: Alles wird zu Tokens. Und alles kostet Platz im Kontextfenster.

Was kostet wie viel Kontext?

📝
Text
"Hallo, wie geht's?"
~5 Tokens
💬
Langer Prompt
500 Wörter Anweisung
~750 Tokens
🖼️
Ein Foto
Smartphone-Bild (1024px)
~1.500 Tokens
📄
PDF-Dokument
10-seitiges Dokument
~8.000 Tokens
📚
Ganzes Buch
~300 Seiten
~120.000 Tokens
📸
HD-Foto (hochauflösend)
4K-Bild, detailliert
~5.000 Tokens
💡
Aha-Moment: Wenn ihr eurem Custom GPT eine 50-seitige PDF als Knowledge gebt, sind schon ~40.000 Tokens verbraucht — bevor der erste Chat beginnt!

Das heißt: Bei GPT-4o (128K) sind schon 31% des Kontextfensters weg.

Welches Tool kann was verarbeiten?

Fähigkeit Copilot ChatGPT Claude Gemini
Text verstehen
Bilder analysieren
PDFs lesen
Audio/Sprache
Video analysieren
Bilder erzeugen ✅ (Designer)✅ (DALL-E)✅ (Imagen)
Code ausführen ❌*
Dateien erzeugen Eingeschränkt

* Claude kann Code schreiben, aber nicht direkt ausführen (außer in Claude Code / Artifacts)

Experiment: Bild vs. Text

Stellt euch vor, ihr wollt der KI eine Rechnung zeigen. Was ist effizienter?

Option A: Foto hochladen
📸
~1.500 Tokens
KI muss das Bild "lesen" und interpretieren
VS
Option B: Text rauskopieren
📋
~200 Tokens
Gleiche Info, 7x weniger Kontext-Verbrauch!
💡
Merksatz: Text ist fast immer effizienter als Bilder — außer ihr braucht die visuelle Information (z.B. "Was siehst du auf diesem Foto?").

Das Gedächtnis der KI

Die KI hat kein echtes Gedächtnis wie ein Mensch. Was sie "weiß", ist nur das, was gerade in ihrem Kontextfenster steht. Aber es gibt Tricks, um das zu umgehen.

Was passiert in einem langen Chat?

Kontextfenster: 0% belegt

Klicke auf "Nächste Nachricht senden" und beobachte was passiert, wenn der Kontext voll wird...

Drei Arten von "Gedächtnis"

💬

Sitzungs-Kontext

Was: Alles was in DIESEM Chat gesagt wurde

Dauer: Nur diese Sitzung

Limit: Durch Kontextfenster begrenzt

"Wie ein Gespräch — wenn ihr geht, vergisst die KI alles"
📚

Knowledge / Wissen

Was: Dateien die ihr im Agenten hinterlegt

Dauer: Dauerhaft (im Agenten gespeichert)

Limit: Frisst Platz im Kontextfenster!

"Wie ein Nachschlagewerk auf dem Schreibtisch — immer da, braucht aber Platz"
🧠

Persistenter Speicher

Was: Dinge die sich die KI über Sitzungen hinweg merkt

Dauer: Dauerhaft

Wo: ChatGPT Memory, Claude Projects, Copilot Notebook

"Wie ein Notizbuch — die KI schreibt sich Dinge auf und liest sie beim nächsten Chat"

Verbindung zum Prompting

❌ Verschwendet Kontext
"Hallo liebe KI, ich hoffe es geht dir gut. Ich hätte da mal eine Frage, und zwar geht es um Folgendes: Ich arbeite gerade an einer Bewerbung und frage mich, ob du mir vielleicht dabei helfen könntest, mein Anschreiben zu verbessern? Es wäre wirklich super nett wenn du dir das mal anschauen könntest. Also hier ist mein Text..."
~85 Tokens für die Frage allein
✅ Effizient
"Verbessere mein Anschreiben für eine Stelle als Projektmanager. Fokus: Klarere Struktur, stärkere Einleitung. Hier der Text:"
~25 Tokens — gleiche Info, 70% weniger!
💡
Merksatz: Gutes Prompting ist auch gutes Kontext-Management. Je präziser eure Anweisung, desto mehr Platz bleibt für die eigentliche Arbeit.

Die Arme der KI

Euer Agent ist schlau — aber blind und taub gegenüber der Außenwelt. Er weiß nicht wie das Wetter ist, kennt keine aktuellen Nachrichten und kann keine E-Mails senden. APIs sind seine Arme, mit denen er nach draußen greift.

Ohne API-Anbindung
🤖
"Ich kann dir leider nicht sagen wie das Wetter gerade ist. Ich habe keinen Zugriff auf aktuelle Daten."
Wetter
E-Mail
Kalender
Mit API-Anbindung
🤖
"In Dresden sind es gerade 13°C bei klarem Himmel. Soll ich dir eine Erinnerung in den Kalender setzen?"
Wetter
E-Mail
Kalender

Wie funktioniert eine API? — Die Restaurant-Metapher

👤
DU (App)
"Wie ist das Wetter?"
Anfrage (Request)
🤵
KELLNER (API)
"Moment, ich frage!"
Verarbeitung
👨‍🍳
KÜCHE (Server)
{ "temp": "13°C" }

Experiment: Verbindungen aktivieren

Klicke auf die Schalter und beobachte, wie sich die Fähigkeiten des Agenten verändern:

🤖 Euer Agent kann jetzt:
  • Aktuelle Wetterdaten abrufen
  • E-Mails senden und empfangen
  • Termine lesen und erstellen
  • Im Internet suchen

Wie verbindet man Tools?

Copilot

Konnektoren

Fertige Bausteine zum Anklicken

  • Microsoft 365 integriert
  • Power Automate Konnektoren
  • Kein Code nötig
Einstieg: ⭐
ChatGPT

Custom Actions

Flexible API-Anbindung per Schema

  • OpenAPI-Schema definieren
  • Jede REST-API anbindbar
  • Technischer, aber flexibler
Einstieg: ⭐⭐
n8n / Make

Workflow-Automation

Visuelle Verbindung ohne Code

  • Drag & Drop Workflows
  • Hunderte Integrationen
  • Trigger-basiert (automatisch)
Einstieg: ⭐⭐

Das Nervensystem der KI

APIs sind die Arme — aber jeder Arm braucht einen eigenen Adapter. MCP (Model Context Protocol) ist der universelle Stecker: Ein Standard, alle Tools.

Das Problem ohne MCP

Adapter A 📧 Gmail
Adapter B 📅 Kalender
Adapter C 📁 Dateien
🤖
LLM
Adapter D 🔍 Suche
Adapter E 💾 Datenbank
Adapter F 🌐 API

Jedes Tool braucht seinen eigenen Adapter — Chaos! 🔴

Die Lösung: MCP — Ein Stecker für alles

🤖 LLM
🔌
MCP
📧 Gmail
📅 Kalender
📁 Dateien
🔍 Suche
💾 Datenbank
🌐 Jede API
Analogie: MCP ist wie USB-C — ein Stecker für alles. Vorher brauchte jedes Gerät sein eigenes Kabel (Lightning, Micro-USB, Mini-USB...). MCP macht das Gleiche für KI-Tools.

Skills — Fertige Fähigkeiten

Ein Skill ist ein fertiges Paket das der KI eine neue Fähigkeit gibt. Statt selbst eine API anzubinden, installiert man einen Skill — wie eine App auf dem Smartphone.

Agent ohne Skills
"Ich kann leider keine E-Mails senden. Ich bin ein reiner Text-Assistent."
+ Skill installieren →
Agent mit E-Mail-Skill
"Ich habe die E-Mail an max@beispiel.de gesendet. Betreff: 'Meeting morgen'. Soll ich noch eine Erinnerung setzen?"
🔮

Vorschau: In Woche 3 baut ihr das selbst

Mit n8n werdet ihr eigene Workflows bauen, die genau diese Verbindungen herstellen: KI + APIs + Trigger = euer eigener Agent der automatisch handelt.

Trigger KI verarbeitet Aktion ausführen