Prompt: Geef een tijdslijn van AI-mijlpalen in onze geschiedenis vanaf het vroegste begin in de historie tot heden. Vervolgprompt: Beiden en wereldwijd
Ik laat je weten zodra de tijdslijn klaar is.
Research completed in 3m· 18 bronnen· 29 zoekopdrachten
Tijdslijn van Wereldwijde AI-Mijlpalen
Ca. 1000 v.Chr. (oudheid) – Mythes en verhalen uit Griekenland, Egypte en andere beschavingen vertellen over mechanische wezens en automaten met ‘leven’en.wikipedia.org
. Deze legendes (bijvoorbeeld Talos of de mythische Golem) suggereren een menselijk verlangen naar kunstmatig leven.
384–322 v.Chr. – Aristoteles formuleert het syllogisme, een methode van formeel redeneren, in zijn werk Organon. Hiermee legde hij de basis voor logica als mechanische denkwijzeen.wikipedia.org
. De beschrijving van middelen-doel redenering in de Nicomacheïsche Ethiek lijkt op latere AI-planningsalgoritmenen.wikipedia.org
.
1e eeuw n.Chr. – Ingenieur Hero van Alexandrië bouwt allerlei mechanische automaten en wordt beschouwd als grondlegger van de programmeerbare machine (bijv. een door programma’s aangestuurde theaterscène)en.wikipedia.org
.
9e eeuw – De wiskundige al-Khwarizmi publiceert stapsgewijze methoden voor rekenkundige bewerkingen (beperkt breuken en vergelijkingen)en.wikipedia.org
. Zijn werk vormt een vroege basis voor algoritmische berekening (het woord “algoritme” komt van zijn naam) en beïnvloedt later de wiskundige logica.
1275 – Ramon Llull ontwikkelt de Ars Magna, een mechanisch rekenapparaat dat combinaties van basisbegrippen produceerten.wikipedia.org
. Dit kan worden gezien als een vroege poging tot mechanisch leren: het genereert nieuwe kennis door bestaande waarheden mechanisch te combineren.
1676 – De wiskundige Gottfried Leibniz formuleert de kettingregel voor differentiërenen.wikipedia.org
. In de moderne AI wordt deze regel gebruikt in het backpropagation-algoritme om diepgaande neurale netwerken te trainen. Leibniz legde ook de visie vast van een universele rekenmachine (“alfabet van het denken”) die elke redenering mechanisch kan uitvoerenen.wikipedia.org
.
1763 – Thomas Bayes publiceert zijn stelling over kansenen.wikipedia.org
. Dit is de grondslag van Bayesian statistiek, die cruciaal is geworden in probabilistische AI-modellen en machinaal leren (Bayesiaanse netwerken).
1800 – Joseph-Marie Jacquard ontwikkelt een kantklosteigel die werkt met programmeerbare ponskaartenen.wikipedia.org
. Dit is een van de eerste voorbeelden van een machine met een geprogrammeerd werkproces, een voorloper van computerprogrammatuur.
1822–1859 – Charles Babbage en Ada Lovelace ontwerpen mechanische rekenmachines met (basis) programmeerbaarheiden.wikipedia.org
. Lovelace schrijft de allereerste computerprogramma’s en voorspelt de mogelijkheden van general-purpose computing.
1854 – George Boole introduceert de Booleaanse algebraen.wikipedia.org
. Dit legt de basis voor de moderne digitale logica en voorwaardelijke regels in computers en AI-systemen.
1936–1937 – Alan Turing beschrijft de Turingmachine, een abstract model voor algemene berekenbaarheiden.wikipedia.org
. Hiermee legt hij de theoretische basis voor wat later computers zullen uitvoeren. Hij toont aan dat sommige berekeningen (zoals het halting-probleem) onoplosbaar zijnen.wikipedia.org
.
1943 – Warren McCulloch en Walter Pitts formuleren het eerste wiskundige model van een kunstmatig neuron en een (eenvoudig) neuraal netwerken.wikipedia.org
. Dit is de allereerste formele beschrijving van een netwerk van binair schakelende “neuronen”.
1948 – Alan Turing schrijft het rapport “Intelligent Machinery”, waarin hij ideeën beschrijft over machine learning en symbolisch denkenen.wikipedia.org
. Dit rapport wordt gezien als een eerste manifest voor AI: Turing stelt dat zoeken en redeneren het hart vormen van intelligent gedrag en bespreekt de mogelijkheden van machinaal lerenen.wikipedia.org
.
1950 – Alan Turing publiceert “Computing Machinery and Intelligence” en introduceert de Turing-test als criterium voor machine-intelligentietechtarget.com
. Dit artikel opent formeel de discussie over “kunnen machines denken?” en geldt als startpunt van moderne AI.
1951 – Marvin Minsky en Dean Edmonds bouwen de SNARC, een vroege artificiële neurale netwerk-simulator met vacuümbuizen (40 neuronen)techtarget.com
. Het toont de mogelijkheid van elektronische neurale netwerken.
1952 – Arthur Samuel ontwikkelt het eerste zelflerende spelprogramma (Amerikaans dammen)techtarget.com
. Dit programma gebruikt machine learning om beter te worden in spel, een primeur in zelflerende software.
1956 – Op de Dartmouth Summer Research Project, georganiseerd door John McCarthy, Marvin Minsky en anderen, wordt formeel de term ‘artificiële intelligentie’ geïntroduceerdtechtarget.com
. Deze workshop geldt als de geboorte van de AI-onderzoeksgemeenschap.
1958 – Frank Rosenblatt ontwikkelt het perceptron, een eenvoudig kunstmatig neuraal netwerk dat uit data kan lerentechtarget.com
. Dit is de eerste echte neurale netwerk-architectuur die bruikbaar is voor patroonherkenning en legt de basis voor latere diepere netwerken. Ook ontwerpt John McCarthy in 1958 het programmeerplat-
form Lisptechtarget.com
, dat snel populair wordt in AI-onderzoek vanwege zijn krachtige symbolische verwerking.
1959 – Arthur Samuel introduceert de term “machine learning”techtarget.com
. Hij benadrukt dat computers niet alleen geprogrammeerd kunnen worden, maar ook hun eigen prestaties kunnen verbeteren. Ook publiceert Oliver Selfridge zijn Pandemonium-model (een neurale metafoor voor leren)techtarget.com
.
1964–1965 – Nieuwe AI-programma’s verschijnen: STUDENT (Daniel Bobrow, 1964), een NLP-systeem voor wiskundige woordproblemen, en Dendral (Feigenbaum, Buchanan e.a., 1965)techtarget.com
. Dendral is een van de eerste expert‑systemen voor scheikundige molecule-identificatie. Deze projecten tonen de kracht van AI voor logisch redeneren en gespecialiseerde kennistoepassingen.
1966 – Joseph Weizenbaum ontwikkelt Eliza, ’s werelds eerste chatbot die gesprekken in natuurlijke taal simuleerttechtarget.com
. In hetzelfde jaar presenteert het SRI (Stanford Research Institute) de robot Shakey, de eerste intelligente mobiele robot met computervisie en navigatietechtarget.com
. Shakey wordt gezien als voorloper van autonome voertuigen en drones.
1968 – Terry Winograd ontwikkelt SHRDLU, een AI-systeem dat op basis van tekstuele commando’s een blokkenspel kon manipuleren en “begrijpen”techtarget.com
. Dit demonstreert vroege multimodale AI (gecombineerd taal en werkomgeving).
1969 – Arthur Bryson en Yu-Chi Ho beschrijven het backpropagation-algoritme voor meerrankaars neurale netwerkentechtarget.com
. Tegelijk verschijnt het boek “Perceptrons” van Minsky en Papert, waarin de beperkingen van eenvoudige neurale netwerken worden aangetoond, wat de eerste AI-onderzoeksplafond (AI-winter) inleidttechtarget.com
.
1973 – Het Lighthill-rapport in het Verenigd Koninkrijk concludeert dat AI niet snel zal leveren wat verwacht is, waardoor de Britse overheid drastisch subsidies intrekttechtarget.com
. Dit markeert het begin van de eerste AI-winter, waarin veel onderzoeksmiddelen opdrogen.
1980 – De introductie van commerciële Lisp-machines (door bedrijven als Symbolics) markeert tijdelijk een AI-hype. Deze gespecialiseerde hardware was bedoeld om AI-programma’s efficiënt uit te voerentechtarget.com
. Tegelijkertijd groeit in de jaren ’80 de populariteit van expert‑systemen (zoals XCON), die kennis van experts vertalen naar rulesystemen.
1984 – Marvin Minsky en Roger Schank introduceren de term “AI winter” tijdens een conferentietechtarget.com
. Ze waarschuwen dat overdreven beloftes en tegenvallende resultaten zullen leiden tot teleurstelling en terugval in financiering – wat enkele jaren later werkelijkheid wordt.
1985 – Judea Pearl ontwikkelt de eerste Bayesiaanse netwerken voor probabilistische oorzaak-gevolg-analysetechtarget.com
. Dit geeft computers nieuwe mogelijkheden om onzekerheid statistisch te modelleren, een basis voor latere probabilistische AI.
1988 – Peter Brown en collega’s publiceren een statistische methode voor machinale vertalingtechtarget.com
. Dit werk is een voorloper van latere neurale machinevertaling en toont het voordeel van probabilistische benaderingen in taalverwerking.
1989 – Yann LeCun (o.a.) demonstreert het eerste werkende convolutionele neurale netwerk (CNN) voor handschrift herkenningtechtarget.com
. Dit bewijst dat neurale netwerken bruikbaar zijn voor echte beeldherkenningstaken en stimuleert later onderzoek in diep leren.
1997 – Sepp Hochreiter en Jürgen Schmidhuber introduceren LSTM-netwerken, die effectief zijn in het verwerken van sequentiële data zoals spraaktechtarget.com
. In datzelfde jaar wint IBM’s schaakcomputer Deep Blue van wereldkampioen Garry Kasparovtechtarget.com
, een doorbraak die de kracht van AI in strategische spellen aantoont.
2000 – Onderzoekers in Montréal (Bengio et al.) publiceren een neuraal probabilistisch taalmodeltechtarget.com
. Dit model introduceert neurale woordvectoren en legde de basis voor latere taalverwerkingssystemen (zoals Word2Vec en LSTM-vertalers).
2006 – Fei-Fei Li start het ImageNet-project, een grote database met gelabelde plaatjestechtarget.com
. ImageNet wordt in 2010 de basis voor een jaarlijkse competitie in beeldherkenning, die uiteindelijk de AI-boom (deep learning revolutie) ontketent. Tegelijk begint IBM met Project Watson om een computer te bouwen die quizvragen kan beantwoorden (Dit leidt in 2011 tot een beroemde overwinning in Jeopardy!techtarget.com
).
2009 – Ruishen Raina, Anand Madhavan en Andrew Ng introduceren het gebruik van GPU’s voor deep learningtechtarget.com
. Dit versnelt het trainen van grote neurale netwerken aanzienlijk en maakt complexe modellen praktisch realiseerbaar.
2011 – IBM’s Watson wint de Amerikaanse quizshow Jeopardy! van de beste menselijke spelersibm.com
. Dit toont AI’s mogelijkheden in taalbegrip en vraag-antwoord-systemen. In hetzelfde jaar brengt Apple Siri uit, een spraakgestuurde assistent voor consumenten die natuurlijke taal gebruikt om vragen te beantwoorden en taken uit te voerentechtarget.com
.
2012 – Het jaar van de deep learning doorbraak: Geoffrey Hinton en collega’s introduceren een diep convolutioneel netwerk (AlexNet) dat dramatisch beter scoort in de ImageNet-competitietechtarget.com
. Dit resultaat leidt tot een massale heropleving van AI-onderzoek en -implementatie (Big Data, GPU’s, neurale netwerken).
2013 – Google DeepMind ontwikkelt deep reinforcement learning, een CNN dat leert via beloningen en zelf spelletjes speelt op expert-niveautechtarget.com
. Ook introduceren Tomas Mikolov en collega’s Word2Vec voor automatische herkenning van semantische relaties tussen woordentechtarget.com
, waardoor taalmodellen veel beter verbanden in teksten kunnen leggen.
2014 – Ian Goodfellow en anderen introduceren Generative Adversarial Networks (GANs)techtarget.com
, waarmee kunstmatige afbeeldingen van hoog realiteitsgehalte gegenereerd kunnen worden. Tegelijk verschijnt het concept van variational autoencoders (VAE) voor beeld- en tekstgeneratie (Kingma & Welling)techtarget.com
. Facebook ontwikkelt DeepFace, een gezichtsherkenning met bijna menselijke nauwkeurigheidtechtarget.com
. Deze vorderingen versnellen de ontwikkeling van generatieve AI, deepfakes en gezichtsherkenning.
2016 – DeepMind’s AlphaGo verslaat de Go-kampioen Lee Sedoltechtarget.com
, een doorbraak vergelijkbaar met Deep Blue in 1997 en een bewijs van de kracht van reinforcement learning. In datzelfde jaar start Uber in Pittsburgh een proefproject met zelfrijdende auto’s voor selecte gebruikerstechtarget.com
, wat de opmars van autonoom vervoer markeert.
2017 – Google publiceert het paper “Attention Is All You Need” waarin de Transformer-architectuur wordt geïntroduceerdtechtarget.com
. Dit neuraal model zet de toon voor moderne taal- en generatieve AI (o.a. GPT, BERT, enz.). Stephen Hawking waarschuwt dat ondoordachte AI-ontwikkeling “het ergste kan zijn” voor de mensheidtechtarget.com
, wat het publieke debat over AI-veiligheid op gang brengt.
2018 – OpenAI brengt de eerste GPT (Generative Pre-trained Transformer) uittechtarget.com
. Dit grote taalmodel toont aan dat één enkele transformer-architectuur diverse taalverwerkings- en generatietaken kan uitvoeren. Ook stuurt Airbus’s CIMON-robot voor het eerst een AI-robot met astronauten de ruimte in.
2020 – OpenAI publiceert GPT-3 met 175 miljard parameterstechtarget.com
. GPT-3 kan mensachtige teksten genereren en toepassingen zoals chatbots, schrijfhulpen en coderingsassistenten (o.a. GitHub Copilot) mogelijk maken. DeepMind’s AlphaFold wint de CASP-contest (eiwitvouwing) en voorspelt eiwitstructuren extreem nauwkeurigtechtarget.com
, wat een revolutie betekent voor de biochemie.
2021 – OpenAI introduceert DALL·E, een multimodaal AI-systeem dat afbeeldingen maakt op basis van tekstuele beschrijvingentechtarget.com
. Dit laat zien dat AI nu ook ingewikkelde visuele concepten automatisch kan genereren uit taalinput.
2022 – Op 30 november 2022 lanceert OpenAI ChatGPT, een chatbot gebaseerd op het GPT-3.5-modeltechtarget.com
. Door zijn gebruiksvriendelijke chat-interface wordt AI plotseling voor miljoenen gebruikers toegankelijk, wat de “democratisering” van AI voor het brede publiek symboliseert.
2023 – OpenAI kondigt GPT-4 aan, een multimodaal taalmodel dat zowel tekst als afbeeldingen begrijpttechtarget.com
. Microsoft integreert ChatGPT in de Bing-zoekmachine, en Google brengt de chatbot Bard uit (eigen generatief model). Begin 2023 doen duizenden experts, waaronder Elon Musk, een oproep tot een tijdelijke stop op AI-onderzoek boven GPT-4-niveau om veiligheidsrisico’s te besprekentechtarget.com
.
2024 – Generatieve AI blijft zich razendsnel ontwikkelen met verbeterde modellen en efficiëntere trainingsmethodestechtarget.com
. Tegelijk ontstaat grote maatschappelijke en wetgevende aandacht: het Europees Parlement keurt de EU AI Act goed (met regels voor veilige AI) en in de VS volgen staten als Colorado en Californië nieuwe AI-reguleringentechtarget.com
. Deze wetten en richtlijnen vormen de eerste wereldwijde stap naar gecontroleerde toepassing van krachtige AI-systemen.
Bronnen: de genoemde mijlpalen zijn samengesteld uit wetenschappelijke publicaties en nieuwsbronnen over AI-ontwikkelingen.wikipedia.org
. Iedere gebeurtenis is gekoppeld aan relevante personen of organisaties en het belang voor het vakgebied AI. (Overzicht gebaseerd op verbonden bronnen uit recente AI-historie.)
Update 16.06.2025