Ein Zeitstrahl

Die Geschichte einer Idee,
die wir Intelligenz nennen. Von McCulloch & Pitts bis zu agentischen Modellen — acht Jahrzehnte in einer Linie.

Künstliche Intelligenz ist kein Produkt der letzten drei Jahre. Sie ist eine achtzig Jahre alte Disziplin mit zwei Eiszeiten, drei Renaissancen und einer Handvoll Durchbrüchen, die alles veränderten. Diese Seite folgt der Linie — chronologisch, ohne Hype, mit den Köpfen, Orten und Ideen, die hinter jedem Schritt stehen.

83 Jahre
seit dem ersten Neuronenmodell
2 Winter
Krisen, die das Feld neu definierten
10 Epochen
in diesem Zeitstrahl
1 Schwelle
zur agentischen KI · 2024 →
Scrollen · Klicken Sie irgendwo, um die Lichtfarbe zu wechseln
1943 — 1955
Fundamente · Die Idee einer denkenden Maschine
Mathematik · Neuronen

Das erste formale Neuronenmodell

Warren McCulloch und Walter Pitts veröffentlichen „A Logical Calculus of the Ideas Immanent in Nervous Activity". Sie zeigen, dass ein Netzwerk vereinfachter Neuronen prinzipiell jede berechenbare Funktion ausführen kann. Der theoretische Grundstein für alle späteren neuronalen Netze.

Neuronales Netz Logik Theorie
1943
Chicago · USA
Warren McCulloch & Walter Pitts veröffentlichen das erste mathematische Modell eines Neurons.
Philosophie · Test

Turing fragt: „Kann eine Maschine denken?"

Alan Turing veröffentlicht „Computing Machinery and Intelligence" und formuliert den später nach ihm benannten Test. Statt zu definieren, was Denken ist, schlägt er einen operationalen Maßstab vor: Verhalten, das von menschlichem nicht unterscheidbar ist.

Turing-Test Imitation Game
1950
Manchester · UK
Alan Turing · Mind, Vol. LIX
Konferenz · Geburtsstunde

Dartmouth — eine neue Disziplin bekommt einen Namen

In einem Sommer-Workshop in Hanover, New Hampshire prägt John McCarthy den Begriff „Artificial Intelligence". Mit dabei: Marvin Minsky, Claude Shannon, Nathaniel Rochester. Die Annahme: Jede Facette des Lernens kann so präzise beschrieben werden, dass eine Maschine sie simulieren kann.

Dartmouth-Konferenz Begriff geprägt
1956
Dartmouth College · USA
McCarthy · Minsky · Shannon · Rochester
1956 — 1974
Goldenes Zeitalter · Optimismus & erste Programme
Perzeptron · Lernen

Das erste lernende neuronale Netz

Frank Rosenblatt baut am Cornell Aeronautical Laboratory das Perzeptron — eine Maschine, die einfache Muster klassifizieren kann und ihre Gewichte aus Beispielen lernt. Die Presse spricht vom „Embryo eines elektronischen Computers, der laufen, sprechen und sich selbst reproduzieren wird".

Perzeptron Mark I Hardware
1958
Cornell · USA
Frank Rosenblatt — gefördert von der US Navy
Sprache · Chatbot

ELIZA spielt eine Psychotherapeutin

Joseph Weizenbaum schreibt am MIT das Programm ELIZA, das mit Mustererkennung und Umformulierungen erstaunlich überzeugende Gespräche führt. Weizenbaum ist schockiert, wie ernst Nutzer dem Programm begegnen — und wird zum frühesten Kritiker der KI-Anthropomorphisierung.

NLP ELIZA-Effekt
1966
MIT · Cambridge
Joseph Weizenbaum
Blocks World · Verständnis

SHRDLU versteht eine kleine Welt

Terry Winograds Programm versteht und manipuliert eine virtuelle Welt aus Klötzen — über natürliche Sprache. Es ist der Höhepunkt der symbolischen KI: Eine Maschine, die Anweisungen versteht, planen und Rückfragen stellen kann — solange die Welt klein und sauber definiert bleibt.

Symbolische KI Planung
1972
MIT · AI Lab
Terry Winograd
1974 — 1980
Erster KI-Winter · Ernüchterung
Bericht · Kürzungen

Der Lighthill Report dreht den Geldhahn zu

Sir James Lighthill bewertet im Auftrag des britischen Parlaments den Stand der KI-Forschung — vernichtend. Versprechungen wurden nicht eingehalten, das „kombinatorische Explosionsproblem" verhindert echte Anwendungen. Großbritannien und die USA kürzen Forschungsmittel drastisch. Es folgen sechs stille Jahre.

Lighthill Report DARPA-Kürzungen Erster Winter
1974
London · Washington
Sir James Lighthill · Bericht „Artificial Intelligence: A General Survey"
1980 — 1987
Expertensysteme · Wissen als Code
Industrie · ROI

XCON spart Digital Equipment 40 Mio $/Jahr

Das Expertensystem XCON konfiguriert VAX-Computer für DEC. Erstmals zeigt KI messbaren wirtschaftlichen Nutzen. Konzerne weltweit investieren in regelbasierte Systeme. Japan startet das ehrgeizige „Fifth Generation"-Projekt mit 850 Mio US-Dollar.

Expertensystem Regelbasiert XCON · R1
1980
Carnegie Mellon · DEC
John McDermott · entwickelt für Digital Equipment Corp.
Backpropagation

Neuronale Netze lernen — wirklich

Rumelhart, Hinton und Williams publizieren den Backpropagation-Algorithmus in einer Form, die das Training mehrschichtiger Netze praktikabel macht. Der Stein, auf dem 30 Jahre später Deep Learning gebaut wird — doch zunächst fehlen Daten und Rechenleistung.

Backpropagation Multi-Layer
1986
UC San Diego · CMU
David Rumelhart · Geoffrey Hinton · Ronald Williams
1987 — 1993
Zweiter KI-Winter · Der Markt kollabiert
Marktkollaps

LISP-Maschinen sterben — der Markt verschwindet

Spezialisierte KI-Hardware wird über Nacht von Standard-Workstations überholt. Symbolics, LMI und die ganze KI-Industrie schrumpfen drastisch. Das Wort „künstliche Intelligenz" wird in Förderanträgen vermieden — viele Forscher nennen ihre Arbeit „Informatik" oder „maschinelles Lernen".

Zweiter Winter Symbolics
1987
Cambridge MA · weltweit
Branche schrumpft von 1 Mrd $ auf einen Bruchteil
1993 — 2011
Statistisches ML · KI wird leise nützlich
Schach · Symbol

Deep Blue schlägt Garry Kasparow

IBMs Schachcomputer besiegt den amtierenden Weltmeister 3,5:2,5. Kein Lernen, keine Intuition — pure Suche mit 200 Mio. Stellungen pro Sekunde und fein abgestimmten Bewertungsfunktionen. Trotzdem ein kultureller Wendepunkt: Menschen sind in einer Bastion ihres Geistes nicht mehr unschlagbar.

IBM Deep Blue Brute Force
1997
New York · USA
IBM-Team unter Feng-hsiung Hsu
Daten · ImageNet

Fei-Fei Li baut den Daten-Hebel

Während alle nach besseren Algorithmen suchen, fragt Fei-Fei Li in Princeton: Was, wenn das Problem die Daten sind? ImageNet wird zur Datenbank mit 14 Millionen annotierten Bildern in 22.000 Kategorien — die Grundlage, auf der Deep Learning fünf Jahre später durchbricht.

ImageNet Datensätze
2009
Princeton · Stanford
Fei-Fei Li & Team
Quiz · Sprache

Watson gewinnt Jeopardy!

IBMs Frage-Antwort-System schlägt die beiden besten menschlichen Jeopardy-Spieler. Bemerkenswert: nicht die Antworten, sondern das Verstehen der oft sprachlich verschachtelten Fragen. NLP betritt das Wohnzimmer.

IBM Watson Q&A
2011
Yorktown Heights
IBM Research · DeepQA-Projekt
2012 — 2017
Deep Learning · Die Renaissance
Der Knall

AlexNet halbiert den Fehler über Nacht

Bei der ImageNet-Challenge 2012 reicht Alex Krizhevsky ein tiefes Convolutional Network ein — trainiert auf zwei GPUs in seinem Schlafzimmer. Die Fehlerrate fällt von 26 % auf 15 %. Innerhalb von Monaten stellt die gesamte Vision-Forschung auf Deep Learning um. Der zweite Frühling hat begonnen.

AlexNet CNN GPU-Training ILSVRC 2012
2012
University of Toronto
Alex Krizhevsky · Ilya Sutskever · Geoffrey Hinton
Generative Netze

Goodfellow erfindet GANs

In einer Kneipendiskussion in Montreal entsteht die Idee: zwei Netze, die gegeneinander antreten — eines erzeugt, eines beurteilt. Generative Adversarial Networks werden die Basis für synthetische Bilder, Deepfakes und alles, was bis 2022 als „KI-Bild" gilt.

GAN Generativ
2014
Université de Montréal
Ian Goodfellow & Co.
Go · Intuition

AlphaGo schlägt Lee Sedol

Was bei Schach mit Suche möglich war, galt bei Go als unerreichbar — der Suchraum ist astronomisch. DeepMinds AlphaGo kombiniert Deep Learning mit Monte-Carlo-Suche und gewinnt in Seoul 4:1. Zug 37 in Spiel 2 wird zur Legende: ein Zug, den kein Mensch gespielt hätte — und der gewinnt.

AlphaGo Reinforcement Learning Move 37
2016
Seoul · Südkorea
DeepMind — David Silver & Team
2017 — 2021
Transformer-Ära · Aufmerksamkeit ist alles
Architektur · Paper

„Attention Is All You Need" — ein neues Fundament

Acht Google-Forscher veröffentlichen die Transformer-Architektur. Keine Rekurrenz, keine Faltung — nur Self-Attention. Parallelisierbar, skalierbar, elegant. Niemand ahnt zu diesem Zeitpunkt, dass dieses Paper die Blaupause für jedes große Sprachmodell der folgenden Jahre wird.

Transformer Self-Attention NeurIPS 2017
2017
Google Brain · Mountain View
Vaswani · Shazeer · Parmar · Uszkoreit · Jones · Gomez · Kaiser · Polosukhin
Skalierung · Beweis

GPT-3 zeigt die Emergenz-These

OpenAI trainiert ein Modell mit 175 Mrd. Parametern auf großen Teilen des Internets. Plötzlich kann das Modell Aufgaben, für die es nie explizit trainiert wurde — Übersetzung, Code, Argumentation. „Few-Shot Learning" wird zum Standardbegriff. Skala wird zur eigenständigen Strategie.

GPT-3 175 B Parameter Few-Shot
2020
OpenAI · San Francisco
Brown · Mann · Ryder · und Team
Biologie · Anwendung

AlphaFold löst das Faltungsproblem

DeepMinds AlphaFold 2 sagt die 3D-Struktur von Proteinen mit experimenteller Genauigkeit voraus — ein 50 Jahre altes Grand-Challenge-Problem der Biologie. Erstmals verändert Deep Learning eine ganze Wissenschaftsdisziplin in einem einzigen Sprung.

AlphaFold 2 Wissenschaft
2021
DeepMind · London
John Jumper · Demis Hassabis & Team
2022 — 2024
Generative KI · Im Wohnzimmer angekommen
Bild · Diffusion

Stable Diffusion macht Bilder demokratisch

Mit DALL-E 2, Midjourney und dem Open-Source-Modell Stable Diffusion wird Bilderzeugung über Text zur Massentechnologie. Was vorher Fachwissen und Zeit brauchte, dauert jetzt Sekunden. Die Designer-Welt beginnt sich neu zu sortieren.

DALL-E 2 Midjourney Stable Diffusion
2022
OpenAI · Stability AI · Midjourney
Robin Rombach · David Holz · OpenAI-Team
Der Moment

ChatGPT — 100 Millionen Nutzer in 8 Wochen

Am 30. November 2022 stellt OpenAI ChatGPT online. Nicht als Produkt, sondern als „Research Preview". Es wird zum am schnellsten wachsenden Konsumentenprodukt der Geschichte. Plötzlich kennt jeder Großonkel den Begriff „Prompt". Microsoft investiert 10 Mrd. $. Google ruft intern den „Code Red" aus.

ChatGPT GPT-3.5 Konsumenten-KI RLHF
2022
San Francisco · 30. Nov.
OpenAI — unter Sam Altman
Multimodal · Wettbewerb

GPT-4, Claude, Gemini — der Plural

Innerhalb von 18 Monaten erscheinen GPT-4, Anthropics Claude und Googles Gemini. Alle multimodal, alle auf menschlichem Niveau bei vielen Standardtests. Aus einem Modell wird ein Markt. Die Diskussion verschiebt sich von „kann es das" zu „wem vertraut man".

GPT-4 Claude Gemini Llama
2023
SF · London · Mountain View
OpenAI · Anthropic · Google DeepMind · Meta
2024 — 2026
Agentische KI · Modelle, die handeln
Werkzeug · Computer Use

KI bedient den eigenen Bildschirm

Mit Tool Use, Computer Use und Funktionen wie Claudes „Agent SDK" hört KI auf, nur zu reden — sie klickt, scrollt, schreibt Code, ruft APIs auf, schickt Pull Requests. Coding-Agenten wie Claude Code oder Cursor verändern, was ein Entwickler an einem Tag schaffen kann. Aus dem Modell wird ein Mitarbeiter.

Tool Use Coding-Agenten Claude Code MCP
2024
Anthropic · OpenAI · Google
Eine Generation, die nicht mehr nur Text produziert, sondern Aufgaben löst.
Jetzt

Heute — wir stehen mittendrin

Reasoning-Modelle, multimodale Echtzeit-Agenten, KI in nahezu jedem Workflow. Was 1956 in Dartmouth als optimistische Sommerschule begann, ist 70 Jahre später eine Infrastruktur — vergleichbar mit Strom, Internet, GPS. Die nächste Linie wird gerade gezogen.

Reasoning Multimodal 2026 →
2026
Überall
Sie · ich · jedes Unternehmen, das in den nächsten fünf Jahren existiert.
2026 — Ihre Zeile auf diesem Zeitstrahl

Während Sie das lesen,
schreiben andere bereits ihre nächste Software.

Acht Jahrzehnte KI-Geschichte haben eines deutlich gemacht: jede Welle hat Gewinner — und die Gewinner sind die, die zuerst anfangen. Heute reichen ein Prompt, ein Coding-Agent und eine klare Idee, um in Stunden zu bauen, wofür früher Teams und Monate nötig waren. Die Frage ist nicht mehr ob — sondern wer.

AlphaCode.de besuchen
Mehr zu Claude Code, agentischer Entwicklung & KI-Workflows
auf AlphaCode.de