Every — Context Window

🛠 Claude Managed Agents: Anthropic bouwt nu zelf de agent-infrastructuur

Anthropic heeft Claude Managed Agents gelanceerd — een feature waarmee je AI-agents (autonome programma's die taken uitvoeren) kunt draaien zonder zelf de infrastructuur te bouwen. Voor teams zoals Every, die maandenlang…

Open in Readwise →

Kernargument

Anthropic heeft Claude Managed Agents gelanceerd — een feature waarmee je AI-agents (autonome programma's die taken uitvoeren) kunt draaien zonder zelf de infrastructuur te bouwen. Voor teams zoals Every, die maandenlang aan exact deze plumbing werkten, is dit tegelijk frustrerend én een enorme versnelling. Het artikel zit achter een paywall, dus de diepere details ontbreken, maar de strekking is duidelijk: de moat van 'zelf agent-infra bouwen' verdwijnt snel.

Sleutel-inzichten

  • Agent-infrastructuur wordt commodity: het werk dat vibe-coders en startups zelf deden (sessie-management, state, tool-calling orchestratie) rolt Anthropic nu standaard uit. Bouw voorlopig geen diepe infra-laag zelf.
  • Every gebruikt het al in productie om hun eigen producten te bouwen — teken dat het stabiel genoeg is om op te leunen, niet alleen experimenteel.
  • Nieuw vocabulaire voor het AI-tijdperk: het artikel hint dat de taal waarmee we over agents praten (agent, workflow, managed, orchestration) aan het stollen is — handig om bij te blijven.
  • Bonus uit de nieuwsbrief: Eve Bodnia (Logical Intelligence) pleit in AI & I dat LLMs fundamenteel beperkt zijn voor niet-taal taken (ruimtelijk redeneren, data-analyse). Haar alternatief: Energy-Based Models (EBMs — modellen die alle mogelijke antwoorden tegelijk op een 'landschap' mappen en het laagste punt zoeken, in plaats van woord-voor-woord gokken zoals een LLM). EBMs zijn transparanter (geen black box), werken direct op data in plaats van taal, en kunnen parallel redeneren in plaats van sequentieel.

What to Build — Claude Managed Agents verkennen

Wat: Een simpele agent bouwen op Anthropic's Managed Agents platform, bijvoorbeeld een agent die je Stooker-voorraad checkt in Supabase en een dagelijkse Slack-update stuurt.

Hoe: In plaats van zelf een Next.js API-route te bouwen met loops, state-management en tool-calls, gebruik je Anthropic's managed endpoint. Je definieert tools (functies die de agent mag aanroepen, bv. getInventory, sendSlackMessage), Anthropic regelt de rest.

Web research (doen voordat je begint):

  • Anthropic docs: zoek op 'Claude Managed Agents' of 'Agent SDK' voor de huidige API-shape
  • Check of Vercel AI SDK of Supabase Edge Functions al een adapter hebben
  • Vergelijk met OpenAI's Assistants API — vergelijkbaar concept, andere ergonomie

Analyse — waarom dit nu relevant is voor jou:

  • Je bouwt Next.js + Supabase. Tot nu toe moest je zelf agent-loops schrijven als je iets autonomers wilde dan een enkele LLM-call.
  • Managed Agents nemen de 'while loop' uit je handen — minder edge cases, minder bugs in een domein waar je geen expert bent.
  • Risico: vendor lock-in bij Anthropic. Voor een klein experiment prima, voor een kernproduct wil je een abstractielaag.

Stappenplan:

  1. Lees de Anthropic docs en bouw hun hello-world voorbeeld na in een losse Next.js route
  2. Kies één kleine Stooker-usecase: bv. 'agent die dagelijkse verkoopcijfers uit Supabase haalt en een samenvatting in Slack post'
  3. Definieer 2-3 tools als Typescript functies (Supabase query, Slack webhook)
  4. Geef de agent een heldere system prompt met rolbeschrijving en guardrails
  5. Draai handmatig, log elke tool-call, kijk of het gedrag voorspelbaar is
  6. Pas als dat klopt: zet op een cron (Vercel Cron of Supabase scheduled function)

Praktisch voor Onno

Dit is een klassiek 'wacht even met bouwen'-signaal. Als je overwoog zelf een agent-framework in elkaar te hacken voor Stooker (bv. een agent die klantvragen triageert of voorraad-alerts stuurt): probeer eerst Managed Agents. Je bespaart waarschijnlijk weken. Tegelijk: de Every-paywall betekent dat je de concrete implementatie-details mist — dus de Anthropic docs zelf zijn nu je beste bron. En die EBM-discussie uit de podcast is vooral een 'goed om te weten' — niks om vandaag op te bouwen, maar het verklaart waarom LLMs soms zo slecht zijn in bv. voorraadoptimalisatie of routeplanning.


Gerelateerd