AI Agents Worden Infrastructuur: Drie Signalen uit Één Week
JetBrains lanceerde Central, ARM bracht zijn eerste chip uit en Google halveerde AI geheugengebruik. Drie events in vier dagen die samen laten zien waar softwareontwikkeling naartoe gaat.

Introductie
Maandag 24 maart lanceerde JetBrains een volledig nieuw platform voor agentische softwareontwikkeling. Diezelfde dag presenteerde ARM zijn allereerste eigen chip na 35 jaar. Een dag later publiceerde Google een compressiealgoritme dat het werkgeheugen van AI modellen zes keer verkleint zonder kwaliteitsverlies. Drie lanceringen in vier dagen.
Los van elkaar zijn het indrukwekkende productlanceringen. Samen vertellen ze een groter verhaal. AI agents zijn geen experiment meer. Ze worden onderdeel van de kern van softwareontwikkeling, met eigen hardware, eigen platforms en steeds efficiëntere modellen. Bij MG Software merkten we deze verschuiving al in onze klantprojecten. Nu bevestigt de industrie het in één klap.
JetBrains Central: Een Controlekamer voor AI Agents
Als je vandaag een AI agent loslaat op je codebase, heb je eigenlijk geen idee wat die agent doet. Welke bestanden wijzigt hij? Welke API calls maakt hij? Hoeveel tokens verbruikt hij? JetBrains Central is gebouwd om precies dat probleem op te lossen.
Het platform werkt als een centrale controlekamer. Je verbindt agents van Claude, Codex, Gemini of je eigen oplossing, en Central beheert de toegangscontrole, het budgetbeheer, de logging en de uitvoering. Developers starten workflows vanuit hun IDE, via de commandoregel of via een webinterface. Het maakt niet uit welke agent je kiest. Central houdt het overzicht.
De cijfers uit JetBrains' eigen AI Pulse enquête onder 11.000 developers onderstrepen waarom dit nu komt. 90% gebruikt al AI op het werk. 22% gebruikt coding agents. En 66% van de bedrijven is van plan om binnen 12 maanden agents te adopteren. De vraag is niet meer óf teams agents gaan gebruiken, maar hoe ze het beheersbaar houden. Dat is precies waar Central op mikt.
ARM Bouwt Zijn Eerste Chip Ooit (en Die Is voor AI Agents)
ARM ontwerpt al 35 jaar processorarchitecturen die andere bedrijven fabriceren. Van smartphones tot servers: ARM tekent de blauwdruk, partners zoals Apple en Qualcomm bouwen de chips. Tot nu.
De ARM AGI CPU is het eerste eigen product. 136 Neoverse V3 cores, gefabriceerd op TSMC's 3nm proces, met dubbele prestaties per watt vergeleken met traditionele x86 processoren. Meta is de eerste klant en medeontwikkelaar. OpenAI, Cerebras, Cloudflare en SAP staan in de rij als launch partners.
Wat het signaal zo sterk maakt: ARM noemt de chip expliciet "gebouwd voor het tijdperk van agentische AI." Eén rack met luchtkoeling levert 8.160 cores. Met vloeistofkoeling meer dan 45.000. Die dichtheid is niet bedoeld voor gewone webservers. Het is gebouwd voor datacenters die duizenden AI agents parallel laten draaien.
Google TurboQuant: Zes Keer Minder Geheugen, Nul Kwaliteitsverlies
"TurboQuant bereikt 3 bit zero loss compressie van de KV cache, waardoor het geheugen 6x krimpt en aandachtsbewerkingen tot 8x versnellen op H100 GPU's."
— Google Research, maart 2026
Elk AI model houdt tijdens het verwerken van tekst een werkgeheugen bij, de zogeheten KV cache. Hoe langer het gesprek of document, hoe groter die cache. Bij lange contexten is geheugen de bottleneck, niet rekenkracht.
Google's TurboQuant comprimeert die cache tot zes keer kleiner, zonder meetbaar verlies in output kwaliteit. Op een H100 GPU levert dat tot acht keer snellere aandachtsbewerkingen op. De techniek combineert twee methodes: PolarQuant, dat datavectoren roteert voor efficiëntere compressie, en QJL, dat stabiliteit garandeert bij agressieve kwantisatie. Het onderzoek werd gepresenteerd op ICLR 2026.
De praktische impact voor developers is direct voelbaar. Langere contexten passen in hetzelfde geheugen. Meer gelijktijdige gebruikers op dezelfde hardware. Lagere kosten per API call. Voor bedrijven die AI features inbouwen in hun producten zijn dit de verbeteringen die het verschil maken tussen een haalbare en onhaalbare businesscase.
De Cijfers Vertellen het Verhaal
67% van de Fortune 500 bedrijven heeft nu minstens één AI agent in productie. Een jaar geleden was dat 34%. Klantenservice is de populairste toepassing met 42% van de implementaties, gevolgd door data analyse op 28% en coding assistentie op 19%.
Walmart optimaliseert zijn supply chain met agents. JPMorgan draait meer dan 200 financiële analyse agents. Shopify handelt 60% van de merchant support tickets volledig autonoom af. Dit zijn geen experimenten meer. Dit is productie.
En de investeringen bevestigen het patroon. In het eerste kwartaal van 2026 ging 4,2 miljard dollar aan durfkapitaal naar AI agent startups. Het Model Context Protocol (MCP) vestigt zich als de standaard voor de verbinding tussen agents en tools. Frameworks consolideren: LangGraph domineert complexe workflows, CrewAI pakt multi agent setups, en Microsofts AutoGen is opgegaan in Semantic Kernel. De infrastructuur kristalliseert.
Wat Wij Hiermee Doen bij MG Software
Bij MG Software zien we deze verschuiving direct in onze projecten. Vorige maand integreerden we GPT 5.4 nano als classificatielaag in drie klantprojecten, met kostenbesparingen van 62 tot 81 procent. Die optimalisatie wordt nog sterker als TurboQuant naar productie komt en de geheugenkosten met een factor zes dalen.
Onze eigen tool Refront gebruikt al agentische workflows voor ticketverwerking. Een klant stuurt een bericht, AI classificeert het, maakt een gestructureerd ticket aan en wijst het toe aan het juiste teamlid. De volgende stap is het inzetten van gespecialiseerde subagents die eenvoudige code wijzigingen zelfstandig doorvoeren. Precies het patroon waar JetBrains Central governance voor biedt.
Voor bedrijven die nu nadenken over AI integratie is het advies simpel: begin klein, meet alles, en investeer in beheerbaarheid. De technologie is er. De hardware wordt goedkoper. De platforms voor beheer verschijnen. Het is niet meer de vraag of AI agents onderdeel worden van uw software. De vraag is wanneer u begint. Neem contact op als u wilt sparren over de mogelijkheden.
Conclusie
Drie lanceringen in vier dagen. Nieuwe hardware, een nieuw beheerplatform en een doorbraak in geheugenefficiëntie. Elk lost een ander stuk van de puzzel op, en samen vormen ze een helder beeld: AI agents bewegen van prototype naar infrastructuur.
De bedrijven die deze infrastructuur bouwen wedden erop dat binnen twee jaar de meeste softwareteams agents als vaste teamleden hebben. De adoptiecijfers suggereren dat ze gelijk hebben. Als uw team nog niet begonnen is met het verkennen van agent workflows, dan is dit de week om te starten.

Sidney de Geus
Co-Founder
Gerelateerde artikelen

GPT-5.4 Nano en Mini: Wat OpenAI's Goedkoopste Modellen Betekenen voor Developers
OpenAI bracht GPT-5.4 nano en mini uit, kleiner, sneller en tot 98% goedkoper dan het vlaggenschip. We ontleden de specs, voeren praktijktests uit en leggen uit wanneer u welk model inzet.

Anthropic's Code Review Tool: Waarom AI-Gegenereerde Code AI-Review Nodig Heeft
Anthropic lanceerde een dedicated code review tool voor de stroom AI-gegenereerde pull requests. We analyseren wat het doet, waarom het ertoe doet, en hoe het past in moderne development workflows.

GitHub Agentic Workflows: AI Agents die Je Pull Requests Reviewen, CI Fixen en Issues Triagen
GitHub's nieuwe Agentic Workflows laten AI-agents automatisch PRs reviewen, CI-fouten onderzoeken en issues triagen. We ontleden hoe het werkt, de beveiligingsarchitectuur, en wat dit voor development teams betekent.

De AI Coding Paradox: Developers 19% Langzamer met AI (Terwijl Ze Denken Sneller te Zijn)
Een baanbrekend METR-onderzoek toont aan dat ervaren developers 19% langzamer zijn met AI-tools, terwijl ze geloven 20% sneller te zijn. We analyseren waarom, wat dit voor uw team betekent, en hoe u wél profiteert van AI-assisted development.








