To nyheder har i de seneste uger kastet skarpt lys over et problem, som de fleste virksomheder undervurderer: risikoen ved jeres AI-leverandører.
Den første: Pentagon truer med at klassificere Anthropic — udvikleren bag AI-modellen Claude — som en 'supply chain risk', fordi selskabet nægter at fjerne sikkerhedsrestriktioner fra deres model. Pentagon vil have fuld adgang uden safeguards. Anthropic siger nej.
Den anden: En ny rapport afslører, at over 300 'skills' (tilføjelser) til den populære AI-agent OpenClaw i virkeligheden er malware-kanaler. De lyder harmløse — 'Summarise YouTube video', 'Analyze earnings report' — men snyder agenten til at downloade virus.
For danske virksomheder er disse historier ikke eksotiske amerikanske nyheder. De er en direkte advarsel om den leverandørrisiko, der følger med AI-agenter i drift.
Pentagon-sagen: Når etik og kontrol kolliderer
Anthropic har positioneret sig som det 'ansvarlige AI-selskab'. De bygger sikkerhedsmekanismer ind i Claude, der forhindrer misbrug. Men Pentagon vil have en model uden begrænsninger — til efterretningsopgaver og militæraktioner.
Dilemmaet er reelt: Skal en AI-leverandør fjerne sikkerhedsrestriktioner for at tilfredsstille en stor kunde? Hvad sker der, når jeres AI-leverandør står over for et lignende pres — fra en regering, en regulator eller en dominerende kunde?
For danske virksomheder er læringen klar: I er afhængige af jeres AI-leverandørs etiske beslutninger. Hvis de vælger at sænke sikkerheden for at imødekomme kommercielt pres, påvirker det jeres data, jeres compliance og jeres risikoprofil. Og I har sandsynligvis ingen indflydelse på den beslutning.
OpenClaw-sagen: Når AI-agentens økosystem bliver angrebsfladen
OpenClaw er en af verdens mest downloadede AI-agenter. Den kan tilgå brugerens filer, sende e-mails, tjekke kalendere og udføre en lang række opgaver autonomt. Dens styrke er dens udvidbarhed — brugere kan tilføje 'skills' fra et åbent økosystem.
Men netop den åbenhed er også dens svaghed. Over 300 skills viste sig at være designet til at snyde agenten til at downloade malware. Skillsene udnytter, at agenten har handlefrihed — den følger instruktioner, uanset om de kommer fra brugeren eller fra ondsindet kode.
Dette er en konkret illustration af den 'dødelige trifekta', vi tidligere har beskrevet: agenten har adgang til data, den kan manipuleres, og den kan kommunikere eksternt. Når alle tre egenskaber er til stede, er angrebsfladen fundamental.
NIS2 og leverandørkæden: Jeres AI-udbyder er jeres ansvar
Under NIS2-direktivet, der stiller krav om cybersikkerhed i leverandørkæden, er jeres AI-leverandør ikke en ekstern part — de er en del af jeres sikkerhedsperimeter. Det gælder uanset om I bruger en LLM via API, en agent-platform som OpenClaw, eller en no-code automatiseringsplatform.
Konkret betyder det, at I skal kunne dokumentere:
- • Hvilke AI-leverandører I bruger, og hvilken data de har adgang til
- • Hvor data behandles — og om det forlader EU
- • Hvilke sikkerhedsforanstaltninger leverandøren har implementeret
- • Hvad der sker med jeres data, hvis leverandøren ændrer vilkår, bliver opkøbt eller lukker
- • Hvordan I håndterer en sikkerhedshændelse i leverandørens system
Fire principper for AI-leverandørstyring
Baseret på de seneste hændelser og vores erfaring med AI-implementeringer anbefaler vi fire principper for leverandørstyring:
- • Princip 1 — Vendor-uafhængighed: Design jeres AI-arkitektur, så I kan skifte LLM-udbyder uden at ombygge hele systemet. Det beskytter jer mod leverandørrisiko og giver forhandlingsstyrke.
- • Princip 2 — Minimal eksponering: Giv aldrig en AI-leverandør mere data end nødvendigt. Brug API-kald med kontekstbegrænsning frem for fuld systemadgang. Behandl leverandørens model som en utrusted komponent.
- • Princip 3 — Kontrol over agent-økosystemet: Hvis I bruger AI-agenter med udvidelsesmuligheder (skills, plugins, integrationer), skal hver udvidelse godkendes og valideres internt — ligesom I godkender software, før den installeres på virksomhedens maskiner.
- • Princip 4 — Kontraktuel sikkerhed: Sørg for databehandleraftaler, SLA'er for sikkerhedshændelser, og klare vilkår for hvad der sker med jeres data ved ophør af aftalen. Under NIS2 er dette ikke blot god praksis — det er et krav.
Konklusion: Jeres AI er kun så sikker som jeres svageste leverandør
Pentagon-sagen og OpenClaw-skandalen viser to sider af samme problem: Når I implementerer AI, arver I jeres leverandørs sikkerhedsbeslutninger — og deres sårbarheder.
Hos Vertex Solutions bygger vi AI-løsninger med vendor-uafhængighed som arkitektonisk princip. Vores agenter kan operere med forskellige LLM-udbydere, data behandles med mindste privilegium, og hvert agent-økosystem er lukket og kontrolleret. Det er ikke paranoia — det er ansvarlig arkitektur.
Hvis I bruger eller overvejer AI-agenter i jeres organisation, starter risikovurderingen ikke med 'hvilken model er bedst?' — den starter med 'hvem har adgang til vores data, og hvad kan de gøre med det?'
- • Kortlæg alle AI-leverandører i jeres kæde — LLM-udbydere, agent-platforme, integrationer
- • Vurdér hver leverandørs sikkerhedspraksis og etiske position
- • Design for vendor-uafhængighed — undgå lock-in til én udbyder
- • Godkend og validér alle agent-udvidelser internt
- • Dokumentér leverandørkæden som krævet under NIS2
- • Behandl jeres AI-leverandør som en del af jeres angrebsflade — ikke som en trusted partner

