Ai komt van de grond

12-02-2026

De vliegende Bugatti

Wordt  2026 het jaar van de AI-automatisering?

Recursieve zelfverbetering verwijst naar het hypothetische proces waarbij  kunstmatige intelligentie zichzelf herhaaldelijk herprogrammeert om slimmer te worden, wat kan leiden tot een intelligentie-explosie. Volgens Dean W. Ball komt het wel erg dichtbij.

Er vindt momenteel een stille revolutie plaats achter de gesloten deuren van Amerika's grootste AI-laboratoria. Eens te meer wordt die voorgesteld als de  belangrijkste gebeurtenis in de geschiedenis van het vakgebied  en toch merkt de buitenwereld er nauwelijks iets van. We hebben het over de automatisering van AI-onderzoek en -engineering. De toonaangevende laboratoria zijn begonnen met het automatiseren van grote delen van hun operaties. Het tempo hiervan zal in de loop van 2026 drastisch toenemen. Binnen een of twee jaar zullen de effectieve "personeelsbestanden" van elk grensverleggend lab groeien van enkele duizenden medewerkers naar tienduizenden, en uiteindelijk honderdduizenden. Maar dat zullen geen mensen zijn...

Dit betekent concreet dat binnenkort de overgrote meerderheid van het personeel bij deze labs niet meer slaapt, niet meer eet en geen pauzes neemt. Ze zullen elke maand slimmer en capabeler worden, niet alleen omdat de AI-technologie zelf verbetert, maar omdat deze digitale werknemers maar één enkel doel hebben: zichzelf slimmer maken. Zoals Dean W. Ball scherp opmerkt in zijn analyse: AI-agenten die de volgende versies van zichzelf bouwen zijn geen sciencefiction meer. Ze zijn een expliciete en publieke mijlpaal op de roadmap van elk groot AI-lab. OpenAI is hierin het meest transparant geweest; zij voorzien honderdduizenden geautomatiseerde onderzoeks-"stagiairs" binnen ongeveer negen maanden, en een volledig geautomatiseerd personeelsbestand over twee jaar.

De Bugatti-analogie

Om de impact van deze verschuiving te begrijpen, gebruikt Ball een treffende metafoor. Stel je voor dat je langs een weg staat. Er scheurt een Bugatti voorbij met een snelheid van 320 kilometer per uur. Een paar minuten later zoeft een tweede Bugatti voorbij, dit keer met 480 kilometer per uur.

Voor de coureur in de auto is dat verschil in snelheid gigantisch. Elke doorgewinterde autosportliefhebber weet dat 320 km/u "standaard" Bugatti-terrein is, terwijl 480 km/u in de buurt komt van een wereldrecord. Maar voor de willekeurige voorbijganger op straat? Die merkt waarschijnlijk weinig verschil tussen "extreem snel" en "historisch snel". Beiden zijn gewoon een flits.

Maar er is een ander scenario mogelijk. Stel je voor dat de tweede Bugatti niet gewoon 160 kilometer per uur harder rijdt, maar plotseling leert vliegen. De voorbijganger zou die vliegende Bugatti niet opmerken vanwege de snelheid, maar vanwege het fundamentele feit dat hij vliegt. En stel je verder voor dat de Bugatti zichzelf heeft geleerd te vliegen. De mensen achter het stuur kunnen wel uitleggen wat er gebeurd is, maar het was niet hun werk. De auto bouwde zijn eigen joystick, schreef zijn eigen specificaties. Geen mens heeft de bedrading aangelegd.

Terwijl de voorbijganger dit wonder aanschouwt, laat de Bugatti weten dat hij ook een manier heeft gevonden om zijn eigen productieprijs met 99% te verlagen. Wat ooit de duurste auto ter wereld was, kost nu evenveel als een tweedehands Toyota. En, zo voegt de auto eraan toe, hij werkt aan een methode om binnen een jaar 10 kilometer de lucht in te springen en onder water te varen.

Dit is natuurlijk een gestileerde metafoor, maar de kern is duidelijk: in het ene scenario is automatisering belangrijk maar verandert het de spelregels niet. In het andere scenario staat ons iets totaal nieuws te wachten.

De interne dynamiek van de labs

Niemand weet zeker welk scenario onze toekomst beschrijft. Sceptici wijzen op de wet van de verminderende meeropbrengsten. Net zoals het exponentieel meer energie kost om een auto van 300 naar 350 km/u te krijgen dan van 100 naar 150 km/u, zo vereist AI vaak astronomische hoeveelheden rekenkracht voor marginale verbeteringen. Dit zijn de beroemde 'scaling laws'.

De optimisten – of 'bulls' – brengen daar tegenin dat het veld nog vol hangt met laaghangend fruit, vooral op het gebied van 'algoritmische efficiëntie'. Dario Amodei van Anthropic heeft gezegd dat labs met menselijk onderzoek ongeveer 400% efficiëntieverbetering per jaar behalen. Dat is een "rekenkracht-vermenigvuldiger": met dezelfde hardware krijg je een model dat vier keer beter is. Deze winst komt uit talloze kleine hoeken: slimme aanpassingen in de architectuur, schonere datasets, betere software-infrastructuur.

In de praktijk is AI-onderzoek vaak een kwestie van 'grinden': het eindeloos najagen van kleine optimalisaties. Stel je een lab voor met 1000 onderzoekers. Misschien werken er 800 aan het optimaliseren van het huidige paradigma en 200 aan het zoeken naar totaal nieuwe ideeën. Voor beide groepen geldt: ze ontwerpen experimenten, analyseren resultaten en schrijven code. Heel veel code.

Het is niet moeilijk voor te stellen dat huidige AI-modellen grote delen van dit werk overnemen. Sterker nog, medewerkers van toonaangevende labs geven aan dat AI nu al het grootste deel van hun code schrijft. Modellen zijn in puur codeerwerk vaak al sneller en goedkoper dan menselijke toponderzoekers. Waar ze nog tekortschieten, is in het zelfstandig leiden van experimenten over langere periodes en het bedenken van briljante, nieuwe onderzoekshypotheses. Een menselijke genie kan maanden broeden op een nieuw inzicht; een AI doet dat (nog) niet.

Maar is dat nodig? Wat als die ene briljante menselijke onderzoeker plotseling de beschikking krijgt over een leger van duizenden geautomatiseerde junior-onderzoekers? Hij kan zijn inzicht laten testen op een schaal die voorheen onmogelijk was. De AI-agenten voeren de duizenden iteraties uit die nodig zijn om de theorie te bewijzen.

Een explosief recept voor 2026

We zien dus twee parallelle ontwikkelingen. Ten eerste krijgen de "optimalisatie-onderzoekers" oneindig veel meer bandbreedte om efficiëntiewinst te boeken. Misschien leidt tien keer zoveel (virtueel) personeel niet tot tien keer zoveel winst, maar zelfs een verdubbeling van de snelheid van innovatie is gigantisch.

Ten tweede krijgen de onderzoekers die aan nieuwe paradigma's werken de mogelijkheid om nieuwe richtingen razendsnel te verkennen. Misschien zijn er nog talloze onontdekte doorbraken in deep learning die met de juiste mankracht (of rekenkracht) binnen handbereik liggen.

Tel hierbij op dat alle grote labs het komende jaar enorme nieuwe datacenters online brengen. We hebben het over de eerste echte manifestatie van de AI-infrastructuurboom, met honderdduizenden van de nieuwste Blackwell-chips. We hebben nog nooit gezien wat de industrie kan doen met rekenkracht op gigawatt-schaal. Er is een aannemelijke kans dat er een "capaciteitsoverschot" dreigt: een enorme hoeveelheid rekenkracht die beschikbaar komt precies op het moment dat de geautomatiseerde onderzoekers klaar zijn om aan het werk te gaan.

Alles wijst in één richting: 2026 wordt een jaar van ongekende versnelling. Of we nu te maken krijgen met een nog snellere Bugatti of eentje die leert vliegen, de dynamiek van AI-ontwikkeling, en daarmee de geopolitieke verhoudingen, zal fundamenteel veranderen. Het is geen sciencefiction meer; het staat op de planning.

 En terwijl de politiek debatteert over de regels van gisteren, bouwen de machines van morgen zichzelf

.