Michael Nielsen over hoe wetenschap echt vooruitgang boekt (en waarom AI dat niet zomaar overneemt)
Hey Onno, deze is een aanrader als je wil nadenken over waar AI wél en níet gaat versnellen. Dwarkesh praat met Michael Nielsen (pionier quantum computing, schreef het standaard-leerboek erover, en de deep learning tutor…
Hey Onno, deze is een aanrader als je wil nadenken over waar AI wél en níet gaat versnellen. Dwarkesh praat met Michael Nielsen (pionier quantum computing, schreef het standaard-leerboek erover, en de deep learning tutorial waar Chris Olah en Greg Brockman door het veld in rolden). Geen buildables dit keer, maar wel een hoop denkkaders die je kan gebruiken als je nadenkt over waar AI echt doorbraken gaat forceren — en waar niet.
Hoofdonderwerpen
- Hoe wetenschappelijke vooruitgang écht werkt (spoiler: niet zoals de YouTube-versie van 'Michelson-Morley → Einstein')
- Waarom falsificatie (het idee van Karl Popper dat je een theorie kan weerleggen met één experiment) in de praktijk veel rommeliger is dan het klinkt
- AlphaFold als filosofisch raadsel: is het eigenlijk wel een wetenschappelijke verklaring?
- De 'tech tree' van wetenschap is veel groter dan we denken — met grote implicaties voor hoe de toekomst eruit ziet
- Hoe je zelf dieper leert (heel herkenbaar gesprek op het eind tussen Dwarkesh en Nielsen over podcasten als leer-methode)
Key insights
Verificatie-loops in wetenschap zijn vaak vijandig, niet behulpzaam. Het klassieke voorbeeld: Michelson-Morley (1887) 'bewees' niet dat de ether niet bestond — Michelson zelf geloofde tot zijn dood in de ether en deed tot in de jaren '20 experimenten om 'm te vinden. Lorentz had de wiskunde van de speciale relativiteitstheorie al voor Einstein, maar met een compleet andere interpretatie (hij dacht dat de ether klokken fysiek vervormde). Einstein's interpretatie won niet omdat een experiment 'm bewees — dat gebeurde pas in 1940 met muonen (subatomaire deeltjes die ontstaan als kosmische straling de atmosfeer raakt, en die langer 'leven' dan klassiek mogelijk is door tijddilatatie). De wetenschappelijke gemeenschap schakelde dus jaren eerder over op de betere theorie dan dat er harde data was. Hoe? Dat is juist het mysterie.
Lakatos' punt over 'hostile verification loops'. Nielsen haalt het voorbeeld aan van Prout's hypothese (1815) dat alle atoomgewichten hele getallen zijn, alleen hydrogeen-veelvouden. Chloor meet 35,5 — en hoe nauwkeuriger je meet, hoe verder het afwijkt (35,46). Pas in de 20e eeuw begrepen we dat je isotopen meet (varianten van hetzelfde element met verschillende massa door extra neutronen). 85 jaar lang was de data dus actief misleidend, en toch moest iemand de 'verkeerde' theorie verdedigen om er uiteindelijk uit te komen.
Expertise kan in de weg zitten. Poincaré had bijna de speciale relativiteitstheorie — hij begreep het relativiteitsprincipe en dat de lichtsnelheid constant is. Maar hij bleef volhouden dat lengtecontractie (objecten die korter worden bij hoge snelheid) een dynamisch effect was, niet kinematisch (kinematisch = eigenschap van ruimte en tijd zelf, niet van krachten op het object). Einstein was jong genoeg om los te laten.
De heuristieken (vuistregels) die werken zijn juist waar je níet meer vastloopt. Nielsen's punt: wetenschap loopt per definitie vast op plekken waar bestaande methoden niet werken. Als je wetenschap probeert te reduceren tot een 'process' dat je kan uitvoeren, loop je vast op exact die plekken waar de bottleneck zit.
AlphaFold is filosofisch een nieuw type object. Drie manieren om ernaar te kijken: (1) conservatief — het is geen echte verklaring want geen parsimonieuze principes (parsimonie = voorkeur voor simpele verklaringen met weinig vrije parameters); (2) het bevat verklaringen die je via interpretability (het uitpluizen van wat er binnen een neuraal netwerk gebeurt) eruit kan halen; (3) het is een nieuw soort ding — niet een verklaring in klassieke zin, maar iets waar je nieuwe 'werkwoorden' op kan loslaten (mergen, distilleren, etc).
AlphaFold is vooral een data-succes, niet een AI-succes. Miljarden dollars en decennia aan röntgen-diffractie, NMR en cryo-EM (drie manieren om eiwitstructuren te meten) bouwden de Protein Data Bank met 180.000 structuren. De AI is er een relatief kleine laag bovenop. Belangrijk om te onthouden als je denkt over waar AI écht versnelt.
De tech tree is enorm en grotendeels onontdekt. Nielsen's intuïtie: er zijn nog ontelbaar veel fundamentele ideeën te ontdekken, óók in computer science. Public-key cryptografie (de wiskundige basis waarop alle online beveiliging rust) zat verborgen in de jaren '30 computer-science-fundamenten maar duurde decennia om te ontdekken. Dus ook na 'theorie van alles' gaat het niet stoppen.
Diminishing returns is niet intrinsiek. Het Bloom-paper laat zien dat bv. de halfgeleiderindustrie elk jaar 9% meer onderzoekers nodig heeft om Moore's Law vol te houden. Nielsen's tegenargument: dat is per smal gedefinieerde metric. Zodra een nieuw veld opent (computer science in de jaren '30, deep learning rond 2010), kunnen 21-jarigen ineens weer doorbraken doen. Het patroon herhaalt zich.
Aliens zouden een totaal andere tech-stack hebben. Omdat de boom van mogelijke ideeën zo breed is, zullen verschillende beschavingen verschillende takken verkennen. Dwarkesh' scherpe observatie: dat betekent enorme gains from trade (handelswinsten) tot in de verre toekomst — wat het aantrekkelijker maakt om vriendelijk te zijn tegen andere beschavingen in plaats van ze te onderwerpen.
Takeaways voor jou als ondernemer met AI-toepassingen
-
Wees sceptisch over 'AI gaat wetenschap versnellen via tight verification loops'. Het deel van wetenschap dat verificatie-loops heeft (zoals eiwit-folding of coding met unit tests) is juist het deel waar AI al werkt. De echte bottleneck zit in domeinen waar experimenten jarenlang tegenwerken, waar je decennia moet wachten op nieuwe instrumentatie, of waar de juiste theorie simpelweg niet dwingt uit de data volgt. Dat gaat niet vanzelf opgelost worden door meer rekenkracht.
-
Tech-bomen zijn pad-afhankelijk. Voor jou relevant: de specialty coffee wereld heeft ook zo'n tech tree. Er zijn takken (fermentatie-processen, sensorische taal, bepaalde brandingsmethoden) die toevallig verkend zijn. Andere takken zijn nog onaangeroerd niet omdat ze niet interessant zijn maar omdat niemand er toevallig gewoon begon. AI kan helpen om die onverkende takken sneller te inventariseren.
-
Het 'vloeiend door LLMs heen chatten'-gevaar. Nielsen en Dwarkesh hebben aan het eind een heel eerlijke uitwisseling hierover. Dwarkesh geeft toe: LLMs maken leren makkelijker maar níet dieper. Je kan oneindig doorvragen zonder ooit het ongemakkelijke, klemmende moment te hebben waarin je zelf de som moet doen. Nielsen's advies: verhoog de stakes. Wat zou je doen als er een miljoen op het spel stond? Welke routine-dingen kan je automatiseren zodat je de high-variance momenten écht kan benutten?
-
Het 'ik leer door te bouwen'-principe geldt sterk voor AI/coding. Dwarkesh noemt dat hij Ilya Sutskever interviewde en als prep de transformer implementeerde. Dát is wat hij 'clamp' noemt — een hard referentiepunt waar je iets aan vast klikt. Voor jouw vibe-coding: als je écht iets wilt leren (niet alleen output krijgen), zorg dat er elke keer ergens een stuk is waar je het zelf implementeert of debugt. De rest mag Claude doen.
-
Equal-odds regel (Dean Keith Simonton). Elk ding dat je uitbrengt heeft ongeveer gelijke kans om impact te hebben. De meest productieve creatieven zijn ook degenen met veel output. Geen excuus om voor-de-eerste-perfecte-poging-te-wachten. Dit is meer motivatie om dingen uit te brengen dan om het nog een ronde te polijsten.
-
Biografieën van mislukte genieën zouden waardevoller zijn dan van succesvolle. Nielsen's mooie observatie: we lezen altijd winnaars. Wat zouden we leren van IMO-goudwinnaars die later faalden als wiskundige? Waarschijnlijk meer. Geldt ook voor founder-verhalen.
Korte, niet-technische aflevering maar conceptueel rijk. Goed voor tijdens een lange autorit of een stevige wandeling.
Gerelateerd
- AI, je nieuwe collega · 24 mrt 202669. Doomsday op de beurs
- HardFork · 17 apr 2026A.I. Backlash Turns Violent + Kara Swisher on Healthmaxxing + The Zuck Bot Is Coming
- HardFork · 10 apr 2026Anthropic’s Cybersecurity Shock Wave + Ronan Farrow and Andrew Marantz on Their Sam Altman Investigation + One Good Thing