Künstliche Intelligenz ist kein Produkt der letzten drei Jahre. Sie ist eine achtzig Jahre alte Disziplin mit zwei Eiszeiten, drei Renaissancen und einer Handvoll Durchbrüchen, die alles veränderten. Diese Seite folgt der Linie — chronologisch, ohne Hype, mit den Köpfen, Orten und Ideen, die hinter jedem Schritt stehen.
Warren McCulloch und Walter Pitts veröffentlichen „A Logical Calculus of the Ideas Immanent in Nervous Activity". Sie zeigen, dass ein Netzwerk vereinfachter Neuronen prinzipiell jede berechenbare Funktion ausführen kann. Der theoretische Grundstein für alle späteren neuronalen Netze.
Alan Turing veröffentlicht „Computing Machinery and Intelligence" und formuliert den später nach ihm benannten Test. Statt zu definieren, was Denken ist, schlägt er einen operationalen Maßstab vor: Verhalten, das von menschlichem nicht unterscheidbar ist.
In einem Sommer-Workshop in Hanover, New Hampshire prägt John McCarthy den Begriff „Artificial Intelligence". Mit dabei: Marvin Minsky, Claude Shannon, Nathaniel Rochester. Die Annahme: Jede Facette des Lernens kann so präzise beschrieben werden, dass eine Maschine sie simulieren kann.
Frank Rosenblatt baut am Cornell Aeronautical Laboratory das Perzeptron — eine Maschine, die einfache Muster klassifizieren kann und ihre Gewichte aus Beispielen lernt. Die Presse spricht vom „Embryo eines elektronischen Computers, der laufen, sprechen und sich selbst reproduzieren wird".
Joseph Weizenbaum schreibt am MIT das Programm ELIZA, das mit Mustererkennung und Umformulierungen erstaunlich überzeugende Gespräche führt. Weizenbaum ist schockiert, wie ernst Nutzer dem Programm begegnen — und wird zum frühesten Kritiker der KI-Anthropomorphisierung.
Terry Winograds Programm versteht und manipuliert eine virtuelle Welt aus Klötzen — über natürliche Sprache. Es ist der Höhepunkt der symbolischen KI: Eine Maschine, die Anweisungen versteht, planen und Rückfragen stellen kann — solange die Welt klein und sauber definiert bleibt.
Sir James Lighthill bewertet im Auftrag des britischen Parlaments den Stand der KI-Forschung — vernichtend. Versprechungen wurden nicht eingehalten, das „kombinatorische Explosionsproblem" verhindert echte Anwendungen. Großbritannien und die USA kürzen Forschungsmittel drastisch. Es folgen sechs stille Jahre.
Das Expertensystem XCON konfiguriert VAX-Computer für DEC. Erstmals zeigt KI messbaren wirtschaftlichen Nutzen. Konzerne weltweit investieren in regelbasierte Systeme. Japan startet das ehrgeizige „Fifth Generation"-Projekt mit 850 Mio US-Dollar.
Rumelhart, Hinton und Williams publizieren den Backpropagation-Algorithmus in einer Form, die das Training mehrschichtiger Netze praktikabel macht. Der Stein, auf dem 30 Jahre später Deep Learning gebaut wird — doch zunächst fehlen Daten und Rechenleistung.
Spezialisierte KI-Hardware wird über Nacht von Standard-Workstations überholt. Symbolics, LMI und die ganze KI-Industrie schrumpfen drastisch. Das Wort „künstliche Intelligenz" wird in Förderanträgen vermieden — viele Forscher nennen ihre Arbeit „Informatik" oder „maschinelles Lernen".
IBMs Schachcomputer besiegt den amtierenden Weltmeister 3,5:2,5. Kein Lernen, keine Intuition — pure Suche mit 200 Mio. Stellungen pro Sekunde und fein abgestimmten Bewertungsfunktionen. Trotzdem ein kultureller Wendepunkt: Menschen sind in einer Bastion ihres Geistes nicht mehr unschlagbar.
Während alle nach besseren Algorithmen suchen, fragt Fei-Fei Li in Princeton: Was, wenn das Problem die Daten sind? ImageNet wird zur Datenbank mit 14 Millionen annotierten Bildern in 22.000 Kategorien — die Grundlage, auf der Deep Learning fünf Jahre später durchbricht.
IBMs Frage-Antwort-System schlägt die beiden besten menschlichen Jeopardy-Spieler. Bemerkenswert: nicht die Antworten, sondern das Verstehen der oft sprachlich verschachtelten Fragen. NLP betritt das Wohnzimmer.
Bei der ImageNet-Challenge 2012 reicht Alex Krizhevsky ein tiefes Convolutional Network ein — trainiert auf zwei GPUs in seinem Schlafzimmer. Die Fehlerrate fällt von 26 % auf 15 %. Innerhalb von Monaten stellt die gesamte Vision-Forschung auf Deep Learning um. Der zweite Frühling hat begonnen.
In einer Kneipendiskussion in Montreal entsteht die Idee: zwei Netze, die gegeneinander antreten — eines erzeugt, eines beurteilt. Generative Adversarial Networks werden die Basis für synthetische Bilder, Deepfakes und alles, was bis 2022 als „KI-Bild" gilt.
Was bei Schach mit Suche möglich war, galt bei Go als unerreichbar — der Suchraum ist astronomisch. DeepMinds AlphaGo kombiniert Deep Learning mit Monte-Carlo-Suche und gewinnt in Seoul 4:1. Zug 37 in Spiel 2 wird zur Legende: ein Zug, den kein Mensch gespielt hätte — und der gewinnt.
Acht Google-Forscher veröffentlichen die Transformer-Architektur. Keine Rekurrenz, keine Faltung — nur Self-Attention. Parallelisierbar, skalierbar, elegant. Niemand ahnt zu diesem Zeitpunkt, dass dieses Paper die Blaupause für jedes große Sprachmodell der folgenden Jahre wird.
OpenAI trainiert ein Modell mit 175 Mrd. Parametern auf großen Teilen des Internets. Plötzlich kann das Modell Aufgaben, für die es nie explizit trainiert wurde — Übersetzung, Code, Argumentation. „Few-Shot Learning" wird zum Standardbegriff. Skala wird zur eigenständigen Strategie.
DeepMinds AlphaFold 2 sagt die 3D-Struktur von Proteinen mit experimenteller Genauigkeit voraus — ein 50 Jahre altes Grand-Challenge-Problem der Biologie. Erstmals verändert Deep Learning eine ganze Wissenschaftsdisziplin in einem einzigen Sprung.
Mit DALL-E 2, Midjourney und dem Open-Source-Modell Stable Diffusion wird Bilderzeugung über Text zur Massentechnologie. Was vorher Fachwissen und Zeit brauchte, dauert jetzt Sekunden. Die Designer-Welt beginnt sich neu zu sortieren.
Am 30. November 2022 stellt OpenAI ChatGPT online. Nicht als Produkt, sondern als „Research Preview". Es wird zum am schnellsten wachsenden Konsumentenprodukt der Geschichte. Plötzlich kennt jeder Großonkel den Begriff „Prompt". Microsoft investiert 10 Mrd. $. Google ruft intern den „Code Red" aus.
Innerhalb von 18 Monaten erscheinen GPT-4, Anthropics Claude und Googles Gemini. Alle multimodal, alle auf menschlichem Niveau bei vielen Standardtests. Aus einem Modell wird ein Markt. Die Diskussion verschiebt sich von „kann es das" zu „wem vertraut man".
Mit Tool Use, Computer Use und Funktionen wie Claudes „Agent SDK" hört KI auf, nur zu reden — sie klickt, scrollt, schreibt Code, ruft APIs auf, schickt Pull Requests. Coding-Agenten wie Claude Code oder Cursor verändern, was ein Entwickler an einem Tag schaffen kann. Aus dem Modell wird ein Mitarbeiter.
Reasoning-Modelle, multimodale Echtzeit-Agenten, KI in nahezu jedem Workflow. Was 1956 in Dartmouth als optimistische Sommerschule begann, ist 70 Jahre später eine Infrastruktur — vergleichbar mit Strom, Internet, GPS. Die nächste Linie wird gerade gezogen.
Acht Jahrzehnte KI-Geschichte haben eines deutlich gemacht: jede Welle hat Gewinner — und die Gewinner sind die, die zuerst anfangen. Heute reichen ein Prompt, ein Coding-Agent und eine klare Idee, um in Stunden zu bauen, wofür früher Teams und Monate nötig waren. Die Frage ist nicht mehr ob — sondern wer.