Von der Theorie zur Transformation

Eine Reise durch die entscheidenden Momente, die die künstliche Intelligenz von einer philosophischen Idee zur transformativen Technologie gemacht haben.

Das McCulloch-Pitts-Neuron: Der erste Baustein

Warren McCulloch und Walter Pitts schlagen das erste mathematische Modell eines Neurons vor und legen damit das theoretische Fundament für alle nachfolgenden neuronalen Netze. Mehr erfahren...

Der Turing-Test: Eine Frage der Intelligenz

In "Computing Machinery and Intelligence" schlägt Alan Turing das "Imitationsspiel" vor, um die Frage "Können Maschinen denken?" durch einen beobachtbaren Test zu ersetzen. Mehr erfahren...

Die Geburt der "Künstlichen Intelligenz"

Auf dem "Dartmouth Summer Research Project" wird der Begriff "Künstliche Intelligenz" offiziell geprägt und die Vision des Feldes formuliert. Mehr erfahren...

Das Perzeptron: Ein erster Funke des Lernens

Frank Rosenblatt entwickelt das Perzeptron, das erste Modell, das Gewichte durch einen Lernalgorithmus anpassen kann, und demonstriert die Fähigkeit, aus Daten zu lernen. Mehr erfahren...

Der erste KI-Winter: Eine Zeit der Ernüchterung

Enttäuschte Erwartungen und drastische Kürzungen von Forschungsgeldern führten zu einer Phase der Stagnation, die als erster "KI-Winter" bekannt wurde. Mehr erfahren...

Expertensysteme und die Wiedergeburt der Netze

Ein kommerzieller Boom durch regelbasierte Expertensysteme trifft auf die Wiederentdeckung des Backpropagation-Algorithmus, der das Training von mehrschichtigen Netzen ermöglicht. Mehr erfahren...

Der zweite KI-Winter: Die geplatzte Blase

Der Markt für teure und unflexible Expertensysteme bricht zusammen. Die Fortschritte bei neuronalen Netzen sind noch zu langsam, was zu einer längeren Phase reduzierter Finanzierung führt. Mehr erfahren...

ResNet: Deep Residual Learning

Microsoft Research löste mit "Deep Residual Learning for Image Recognition" das Problem des verschwindenden Gradienten und ermöglichte das Training extrem tiefer neuronaler Netze, was die Computer Vision revolutionierte. Mehr erfahren...

Der Transformer: Attention Is All You Need

Googles Paper "Attention Is All You Need" stellte die Transformer-Architektur vor und ermöglichte die massive Parallelisierung, die die Ära der großen Sprachmodelle (LLMs) einläutete. Mehr erfahren...

BERT: Bidirektionales Sprachverständnis

Googles "BERT" führte das Masked Language Modeling ein und ermöglichte erstmals ein tiefes, bidirektionales Verständnis von Sprache, was das Transferlernen in der NLP revolutionierte. Mehr erfahren...

GPT-3: Die Macht der Skalierung

OpenAIs "Language Models are Few-Shot Learners" zeigte, dass immense Skalierung zu "emergenten" Fähigkeiten wie dem In-Context-Lernen führt und den Fokus auf Prompt Engineering verlagerte. Mehr erfahren...

InstructGPT & RLHF: Die Zähmung der KI

OpenAI führte mit "Training language models to follow instructions with human feedback" die Methode des Reinforcement Learning from Human Feedback (RLHF) ein, die für die Sicherheit und Nützlichkeit von Modellen wie ChatGPT entscheidend war. Mehr erfahren...