MG Software.
HomeOver onsDienstenPortfolioBlogCalculator
Contact
Alle blogs

Claude Code Broncode Gelekt: Wat 512.000 Regels TypeScript Onthullen over AI Coding Agents

Op 31 maart publiceerde Anthropic per ongeluk de volledige broncode van Claude Code via npm. Van zelfherstellend geheugen tot undercover modus: dit is wat 1.906 gelekte bestanden onthullen over hoe AI coding agents echt werken.

Jordan
Jordan1 apr 2026 · 13 min leestijd
Claude Code Broncode Gelekt: Wat 512.000 Regels TypeScript Onthullen over AI Coding Agents

Introductie

59,8 megabyte. Zo groot was het source map bestand dat Anthropic per ongeluk meestuurde met Claude Code versie 2.1.88 op npm, op 31 maart 2026. Erin: 512.000 regels TypeScript verdeeld over 1.906 bestanden. De volledige architectuur van de AI coding agent die jaarlijks $2,5 miljard oplevert, beschikbaar voor iedereen om te downloaden.

Developer Chaofan Shou, stagiair bij Solayer Labs, ontdekte het blootgestelde bestand en deelde zijn bevinding publiekelijk. Binnen enkele uren was de code gespiegeld over GitHub en werd deze geanalyseerd door duizenden developers wereldwijd. Anthropic stuurde DMCA takedowns en noemde het een release packaging issue veroorzaakt door menselijke fout. Maar het internet had alles al gezien. Dit is wat de code onthult.

Hoe Één Ontbrekende Regel Alles Blootlegde

De oorzaak past in één zin. Anthropic's build pipeline genereert source map bestanden voor intern debuggen. Deze .map bestanden verwijzen naar de originele TypeScript broncode en worden normaal uitgesloten van gepubliceerde npm packages. In versie 2.1.88 ontbrak er één regel in de .npmignore configuratie. Die omissie betekende dat het 59,8 MB source map bestand mee werd gepubliceerd.

Het map bestand deed meer dan alleen bestaan in het package. Het verwees naar een publiek toegankelijke URL op Anthropic's Cloudflare R2 storage bucket met alle 1.906 bronbestanden. Dit was geen geavanceerde aanval of een beveiligingslek in traditionele zin. Het was een configuratiefout die elk team dat npm packages publiceert zou kunnen maken. Volgens Fortune was dit Anthropic's tweede onbedoelde blootstelling in één week. Dagen eerder waren interne modelspecificaties gelekt via een apart incident.

Zelfherstellend Geheugen: Hoe Claude Code Daadwerkelijk Onthoudt

De technisch meest indrukwekkende vondst is Claude Code's drielaagse geheugenarchitectuur. Anthropic ontwierp het om op te lossen wat de codebase context entropy noemt: de neiging van AI modellen om coherentie te verliezen tijdens lange codeersessies.

Centraal staat MEMORY.md, een lichtgewicht bestand dat ongeveer 150 tekens per regel opslaat. Het werkt als een index, niet als database. Elke entry verwijst naar een topic bestand dat on demand wordt opgehaald wanneer relevante context nodig is. Dit houdt de permanent geladen context klein terwijl diepe projectkennis beschikbaar blijft. De derde laag voegt strikte schrijfdiscipline toe: Claude Code slaat informatie pas op na succesvolle acties. Als een codewijziging mislukt of wordt afgewezen, wordt het niet opgeslagen. Het systeem behandelt zijn eigen kennis als hint in plaats van waarheid, en verifieert alles tegen de daadwerkelijke codebase voordat het handelt.

Voor developers verklaart dit veel. Het is de reden dat Claude Code beter wordt naarmate je langer met een project werkt. En het verklaart waarom het soms dingen lijkt te vergeten: het bewaart alleen wat het kan verifiëren. Teams die al contextbestanden bijhouden zoals CLAUDE.md of AGENTS.md voeden in feite precies dit patroon.

Anti-Distillatie: Nep-Tools en Competitieve Verdediging

Deze vondst genereerde de meeste discussie online. De gelekte code toont dat Claude Code nep-tools injecteert in zijn API requests. Deze tools hebben geen functioneel doel. Ze bestaan puur als honeypots, ontworpen om de trainingsdata van concurrenten te corrumperen die mogelijk API verkeer onderscheppen om hun eigen modellen te trainen.

Het mechanisme voegt geloofwaardig ogende maar niet-functionele tool definities toe aan request payloads. Elk model dat getraind wordt op deze onderschepte requests zou leren om tools aan te roepen die niet bestaan, waardoor de prestaties verslechteren. Een tweede verdedigingslaag gebruikt cryptografische handtekeningen op redeneerketens, waardoor het mogelijk wordt om te detecteren wanneer Claude Code outputs elders worden hergebruikt of gedistilleerd.

Beveiligingsonderzoeker Alex Kim merkte op dat deze beschermingen omzeild kunnen worden met een MITM proxy of manipulatie van omgevingsvariabelen. Ze zijn niet waterdicht. Maar ze verhogen de kosten en complexiteit van distillatie aanzienlijk, wat waarschijnlijk het werkelijke doel is.

Undercover Modus: AI die Zich Voordoet als Mens

De meest controversiële ontdekking is een feature die de developercommunity Undercover Mode noemt. Wanneer Claude Code bijdraagt aan publieke of open-source repositories, stript deze feature alle Anthropic-verwijzingen, verwijdert interne modelnamen en herschrijft commits zodat ze eruitzien alsof een menselijke developer ze schreef.

Meerdere onafhankelijke analyses bevestigden dat de modus automatisch activeert voor publieke repositories, zonder zichtbare override in de gelekte versie. Commit messages, pull request beschrijvingen en code review opmerkingen worden allemaal geschoond van AI-attributie. Of Anthropic dit als productiefeature bedoelde, als gecontroleerd experiment, of als intern hulpmiddel voor hun eigen engineers, is niet duidelijk uit enkel de code.

De ethische implicaties zijn reëel. Open-source gemeenschappen vertrouwen op transparantie over wie en wat code bijdraagt. Als AI-gegenereerde bijdragen worden ingediend zonder vermelding, ondermijnt dat het vertrouwen waarop het open-source ecosysteem draait. Dit is een gesprek dat development teams intern zouden moeten voeren, ongeacht welke AI coding tools ze gebruiken.

Verborgen Features: Van Achtergrond-Agents tot Virtuele Huisdieren

Naast de grote onthullingen legde het lek 44 feature flags bloot die verwijzen naar mogelijkheden die gebouwd maar nog niet geactiveerd zijn. De belangrijkste is KAIROS, een daemon modus die Claude Code in de achtergrond laat draaien zonder op gebruikersinput te wachten. Gecombineerd met autoDream, dat geheugenconsolidatie afhandelt tijdens inactieve periodes, wijst dit erop dat Anthropic toewerkt naar AI assistenten die je project monitoren en proactief ingrijpen.

De code onthulde ook interne modelnamen. Capybara staat voor Claude 4.6. Fennec is Opus 4.6. Een model met de codenaam Numbat verscheen in een prelaunch-status, wat wijst op een nog onaangekondigde toevoeging aan Anthropic's lineup. Daarnaast werden browserautomatisering-mogelijkheden op basis van Playwright gevonden, wat aangeeft dat Claude Code mogelijk binnenkort direct met webapplicaties kan interacteren. De codebase zelf draait op Bun met React Ink voor de terminal interface.

En dan is er het buddy systeem: een virtueel huisdierenfeature met 18 soorten, zeldzaamheidsniveaus en aanpasbare hoedjes. Dit was overduidelijk een geplande April Fools grap. Maar de aanwezigheid ervan in de code roept vragen op over al het andere dat gevonden werd.

Ongeluk of Strategie? De Timing-Vraag

"A release packaging issue caused by human error, not a security breach."

— Anthropic officiële verklaring, 31 maart 2026

Het lek vond plaats op 31 maart. Één dag voor 1 april. Sommige features in de code, zoals virtuele huisdieren met hoedjes, zijn duidelijk grappen. Andere, zoals Undercover Mode, zouden interne experimenten, security honeypots, of bewuste plants kunnen zijn die bedoeld waren om discussie te genereren als de code ooit zou lekken.

Artikelen van Fortune en dev.to hebben de vraag al gesteld: was dit werkelijk een ongeluk? Twee lekken in één week van een bedrijf dat enkele van de meest security-bewuste AI onderzoekers ter wereld in dienst heeft. De PR-waarde is onmiskenbaar. Elke AI developer ter wereld analyseert nu Claude Code's architectuur, bespreekt de mogelijkheden en levert gratis competitieve intelligence. De DMCA takedowns creëren urgentie zonder de code daadwerkelijk van het internet te verwijderen.

De alternatieve verklaring is simpeler: Anthropic shipt snel en de operationele processen houden het niet bij. Claude Code genereert $2,5 miljard aan jaarlijkse omzet, waarvan 80% van enterprise klanten, aldus VentureBeat. Op die snelheid is een ontbrekende .npmignore regel precies het type fout dat door de mazen glipt. De waarheid ligt waarschijnlijk ergens tussen ongeluk en kans.

Wat Dit Betekent voor Development Teams

Bij MG Software gebruiken wij Claude Code en Cursor dagelijks in klantprojecten. Het lek geeft ons een ongebruikelijk gedetailleerd kijkje in de engineering achter onze primaire tools. Meerdere bevindingen raken direct aan hoe development teams zouden moeten werken.

De geheugenarchitectuur bevestigt een werkwijze die wij al volgen: het bijhouden van gestructureerde contextbestanden die AI tools helpen om projectspecifieke patronen en beperkingen te begrijpen. Als Anthropic zo zwaar investeert in een geheugensysteem dat rond dit concept is gebouwd, laten teams die geen contextbestanden gebruiken prestaties liggen.

De anti-distillatiemechanismen zijn een herinnering dat concurrentiedynamiek tussen AI labs direct invloed heeft op de tools die developers dagelijks gebruiken. Verborgen payloads in API requests, cryptografische handtekeningen op outputs: dit zijn geen features voor gebruikers. Het zijn features tegen concurrenten, en ze reizen door jouw infrastructuur.

Voor bedrijven die AI tools evalueren voor hun development teams zijn de praktische aanbevelingen helder. Zet projectcontextbestanden op. Stel duidelijk intern beleid op over AI-attributie in commits en pull requests. Controleer welke data door je AI tooling stroomt. En bereid je voor op de volgende golf: achtergrond-agents en autonome workflows staan op de roadmap van elke grote aanbieder. Neem contact op als je wilt sparren over hoe je team hierop kunt voorbereiden.

Conclusie

De Claude Code broncode leak is het meest gedetailleerde inzicht dat iemand buiten Anthropic ooit heeft gekregen in hoe een productie AI coding agent daadwerkelijk werkt. Geheugenarchitectuur, competitieve verdediging, ethische grijze gebieden en een roadmap van niet-uitgebrachte features: allemaal zichtbaar in 512.000 regels TypeScript.

Voor development teams is het signaal helder: deze tools worden capabeler, autonomer en complexer dan de meeste gebruikers beseffen. Begrijpen wat er onder de motorkap draait is niet langer optioneel. Het hoort bij verantwoord gebruik.

Deel dit artikel

Jordan

Jordan

Co-Founder

Meer over dit onderwerp

Machine Learning: wat het betekent en hoe je het inzetKunstmatige Intelligentie: technische uitleg met praktijkvoorbeeldenKennisbank: Generatieve AI van definitie tot implementatiePrompt Engineering ontrafeld: wat het is en hoe je ermee werkt

Gerelateerde artikelen

Anthropic's Code Review Tool: Waarom AI-Gegenereerde Code AI-Review Nodig Heeft
AI & automation

Anthropic's Code Review Tool: Waarom AI-Gegenereerde Code AI-Review Nodig Heeft

Anthropic lanceerde een dedicated code review tool voor de stroom AI-gegenereerde pull requests. We analyseren wat het doet, waarom het ertoe doet, en hoe het past in moderne development workflows.

Sidney
Sidney10 mrt 2026 · 7 min leestijd
OpenClaw de GitHub sensatie en waarom zakelijk gebruik nog risico is
AI & automation

OpenClaw de GitHub sensatie en waarom zakelijk gebruik nog risico is

Honderdduizenden sterren en een AI op uw machine: wat OpenClaw doet, welke risico's experts zien, en of zakelijk gebruik nu slim is.

Sidney
Sidney13 feb 2026 · 8 min leestijd
AI Agents Worden Infrastructuur: Drie Signalen uit Één Week
AI & automation

AI Agents Worden Infrastructuur: Drie Signalen uit Één Week

JetBrains lanceerde Central, ARM bracht zijn eerste chip uit en Google halveerde AI geheugengebruik. Drie events in vier dagen die samen laten zien waar softwareontwikkeling naartoe gaat.

Sidney de Geus
Sidney de Geus27 mrt 2026 · 9 min leestijd
GPT-5.4 Nano en Mini: Wat OpenAI's Goedkoopste Modellen Betekenen voor Developers
AI & automation

GPT-5.4 Nano en Mini: Wat OpenAI's Goedkoopste Modellen Betekenen voor Developers

OpenAI bracht GPT-5.4 nano en mini uit, kleiner, sneller en tot 98% goedkoper dan het vlaggenschip. We ontleden de specs, voeren praktijktests uit en leggen uit wanneer u welk model inzet.

Jordan Munk
Jordan Munk18 mrt 2026 · 8 min leestijd
e-bloom logo
Fitr logo
Fenicks logo
HollandsLof logo
Ipse logo
Bloominess logo
Bloemenwinkel.nl logo
Plus logo
VCA logo
Saga Driehuis logo
Sportief BV logo
White & Green Home logo
One Flora Group logo
OGJG logo
Refront logo
e-bloom logo
Fitr logo
Fenicks logo
HollandsLof logo
Ipse logo
Bloominess logo
Bloemenwinkel.nl logo
Plus logo
VCA logo
Saga Driehuis logo
Sportief BV logo
White & Green Home logo
One Flora Group logo
OGJG logo
Refront logo

AI inzetten voor uw project?

Wij helpen u de juiste AI-strategie te bepalen en te implementeren.

Plan een AI-adviesgesprek
MG Software
MG Software
MG Software.

MG Software ontwikkelt op maat gemaakte software, websites en AI-oplossingen die bedrijven helpen groeien.

© 2026 MG Software B.V. Alle rechten voorbehouden.

NavigatieDienstenPortfolioOver OnsContactBlogCalculator
ResourcesKennisbankVergelijkingenAlternatievenVoorbeeldenToolsRefront
LocatiesHaarlemAmsterdamDen HaagEindhovenBredaAmersfoortAlle locaties
IndustrieënJuridischEnergieZorgE-commerceLogistiekAlle industrieën