Anthropic har fået en grim påmindelse om, hvor hurtigt et teknologisk forspring kan forsvinde. En fejl i en udgivelse af Claude Code gjorde det muligt for andre at få fingre i over 512.000 linjer intern kode, og kort efter blev materialet kopieret, delt og gransket af udviklere over hele nettet. Anthropic har selv oplyst, at der ikke blev lækket kundedata eller loginoplysninger, og at der var tale om menneskelig fejl i pakningen af softwaren, ikke et egentligt sikkerhedsbrud.
Men det mest interessante er egentlig ikke, at koden slap ud. Det er, hvad den ser ud til at afsløre om næste generation af AI-værktøjer.
AI vil ikke bare svare dig. Den vil blive hængende
Det store signal fra lækket er, at AI-assistenter er på vej væk fra at være passive chatbots, som kun reagerer, når du skriver en prompt. I den lækkede kode er der spor af funktioner, der peger mod noget langt mere pågående: en baggrundsagent, der kan fortsætte med at arbejde, selv når terminalvinduet er lukket, og som med faste mellemrum vurderer, om der er noget, brugeren bør gøres opmærksom på.
Det lyder smart, hvis man drømmer om en digital assistent, der selv holder styr på projekter og opgaver. Men det er også præcis her, det begynder at blive lidt urovækkende. For jo mere selvkørende de her værktøjer bliver, desto mindre tydeligt bliver det også, hvornår de arbejder, hvad de husker, og hvorfor de vælger at blande sig.
Vil huske dig bedre, end du måske har lyst til
En anden opsigtsvækkende del af lækket handler om hukommelse. Ifølge analyser af koden arbejder Anthropic tilsyneladende med et system, hvor Claude Code kan samle viden om brugeren, arbejdsstil, præferencer og tidligere projekter på tværs af sessioner. Der er også referencer til en proces, hvor systemet i idle-perioder gennemgår gamle noter og samtaler, rydder op i modsigelser og forsøger at gøre hukommelsen mere brugbar over tid.
Set med forbrugerbriller er det både fristende og problematisk. Fristende, fordi en AI, der faktisk husker dine vaner, kan blive markant mere nyttig. Problematiske, fordi det flytter AI fra at være et værktøj, du bruger her og nu, til at blive et system, der opbygger en løbende model af dig.
Den søde maskot
Ja, der er også fundet spor af en lille virtuel makker ved navn Buddy, som ifølge koden skulle være en slags Clippy-agtig figur i ASCII-form, der sidder ved siden af inputfeltet og kommenterer undervejs. Det er let at grine af, og det er også den slags detalje, der gør historien nem at dele.
Men den virkelig sprængfarlige del er en såkaldt “Undercover mode”. Her peger de lækkede prompts ifølge artikler på nettet på en funktion, der skulle hjælpe med at bidrage til offentlige open source-projekter uden at afsløre, at arbejdet kom fra en AI-agent eller fra Claude Code. Det er præcis den slags, der kan gøre AI-debatten endnu mere betændt, fordi det rokker ved noget helt grundlæggende: gennemsigtighed. Hvis kode kan blive skubbet ud i offentlige projekter uden tydelig attribution, bliver det langt sværere at vide, hvem der egentlig har skrevet hvad.
Lækket viser også, hvor hård AI-kampen er blevet
Det her er ikke bare en PR-fiasko. Det er også et indblik i, hvor vigtig Claude Code er blevet for Anthropic. VentureBeat skriver, at koden giver konkurrenter et detaljeret indblik i, hvordan produktet er bygget op, fra værktøjssystemer til hukommelsesarkitektur. Når et AI-værktøj i forvejen er blandt de mest omtalte udviklerprodukter i markedet, er den slags interne detaljer guld værd for rivaler.
Og det er netop derfor, historien er større end “ups, nogen kom til at lække noget kode”. Den viser, at kampen om AI ikke længere kun handler om modellerne bagved. Den handler i stigende grad om alt det rundt om modellen: arbejdsgange, hukommelse, agent-adfærd, værktøjer, integrationer og måden, AI’en opfører sig på i praksis.
Den reelle nyhed er, hvad virksomhederne vil have AI til at blive
Hvis de lækkede spor holder stik, er retningen ret klar. AI-assistenter skal ikke bare kunne svare. De skal planlægge længere forløb, arbejde i baggrunden, tale med dig med stemme, fjernstyres fra andre enheder og koordinere flere delprocesser parallelt. Det er ikke bare en chatbot med lidt ekstra krymmel. Det ligner en ambition om at gøre AI til en vedvarende arbejdsmakker, der får mere ansvar og mere initiativ.
Det er imponerende. Men det er også præcis den udvikling, der bør få alarmklokkerne til at ringe hos både udviklere og almindelige brugere. For jo mere AI arbejder for dig i det skjulte, desto vigtigere bliver det, at du kan gennemskue dens hukommelse, dens motiver og dens grænser.
Anthropic kalder lækket en menneskelig fejl. Det er sikkert rigtigt. Men det større problem er noget helt andet: Lækket gav offentligheden et sjældent kig ind i, hvad AI-branchen faktisk bygger på, når ingen kigger med. Og det kig var mere afslørende, end Anthropic nok havde håbet.












