đ€ŻâĄïžMin AI Ă€r en fara för USAs sĂ€kerhet
Anthropic blir bannlyst, Àr jag dÄ radikal? Detta förÀndrar ju allt!
Det hÀr Àr nyhetsbrevet dÀr Tomas Seo, innovationsstrateg pÄ Phorecast, berÀttar om hÀndelser, upptÀckter och ny teknik som fÄr honom att utbrista: Detta förÀndrar ju allt! Du prenumererar pÄ det hÀr för att fortsÀtta vara steget före med de senaste trenderna och fÄ konkreta tips för att framtidssÀkra dig och din organisation. Har du fÄtt det hÀr av en vÀn? DÄ vill du kanske starta en egen prenumeration?
Vad har hÀnt?
- TLDR: Anthropic stred mot Department of War om vad deras AI-modeller fÄr anvÀndas till. Nu Àr de svartlistade.
Veckans Vad har hÀnt Àr annorlunda Àn de korta sammanfattningar som jag brukar ha hÀr. Den journalistik jag sett runt det hÀr Àr korta perspektiv frÄn antingen tech eller politiskt perspektiv.
HÀr följer en timeline med de hÀndelser som Àr relevanta för vad som har hÀnt. Det Àr tÀnkt som en lista som gÄr att verifiera sÄ att du som lÀser kan fÄ en objektiv bild av hur hÀndelsen har eskalerat. (Det gÄr ocksÄ bra att anvÀnda som kÀlla för att din egen AI-agent ska kunna förvandla det till den lÀngd eller format som du gillar) Hoppa vidare till nÀsta sektion om du inte Àr intresserad av detaljerna.
14 juli 2025
Department of Defence tilldelar Anthropic ett kontrakt för en tvÄÄrig prototyp med ett tak pÄ 200 miljoner USD för att utveckla frontier-AI för militÀrens behov.
5 september 2025
Trump byter namn pÄ Department of Defence till Department of War.
3 januari 2026
Operation Absolute Resolve genomförs. Amerikanska militÀren anvÀnder Anthropics AI-modell Claude för att gÄ in i Venezuela och tillfÄngata president Nicolås Maduro och hans fru Cilia Flores.
9 januari 2026
Secretary of War utfĂ€rdar memorandumet âArtificial Intelligence Strategy for the Department of Warâ. I det stĂ„r det att Department of War ska bli en âAI-first warfighting forceâ och att de fĂ„r anvĂ€nda AI-tjĂ€nster som de köper för âany lawful useâ.
13 februari 2026
Wall Street Journal offentliggör att Claude anvÀndes för Operation Absolute Resolve. Anthropic börjar runt den hÀr tiden krÀva att fÄ veta exakt hur deras modell har anvÀnts. NÀr de ombeds kommentera hÀndelsen sÄ hÀnvisar de till att all anvÀndning av Claude mÄste, enligt kontraktet, följa Anthropics policy.
Tisdag 24 februari 2026
Anthropics vd Dario Amodei har möte med Secretary of War Pete Hegseth i Pentagon. Mötet slutar med att Hegseth ger Anthropic ett ultimatum, att gĂ„ med pĂ„ deras tolkning av vad de fĂ„r göra med Claude eller bli klassade som âsupply-chain riskâ. Det Ă€r en svartlistning som bara har tilldelats fiender till USA tidigare.
Onsdag 25 februari 2026
Anthropic slĂ€pper version 3.0 av sin Responsible Scaling Policy. I den stĂ„r det uttryckligen att företaget kan komma att förhindra anvĂ€ndandet av deras AI-tjĂ€nster som Ă€r âdeployed within government and other high-stakes settingsâ dĂ€r systemen oövervakade kan fatta beslut som kan leda till till att AI sjĂ€lv kan âcarry out sabotage leading to irreversibly and substantially higher odds of a later global catastrophe.â
Torsdag 26 februari 2026
Sean Parnell som Ă€r spokesperson för Pentagon skriver ett officiellt ultimatum pĂ„ x. âAllow the Pentagon to use Anthropicâs model for all lawful purposes. We will not let ANY company dictate the terms regarding how we make operational decisions. They have until 5:01 PM ET on Friday to decide. Otherwise, we will terminate our partnership with Anthropic and deem them a supply chain risk for DoW.â
Anthropic postar ett officiellt svar pĂ„ sin webbsajt âStatement from Dario Amodei on our discussions with the Department of Warâ. DĂ€r tydliggörs att det Anthropic inte vill tillĂ„ta Ă€r massövervakning av amerikanska medborgare. Det finns inga lagar som förbjuder att koppla ihop offentlig information men med AI sĂ„ Ă€r det möjligt att pussla ihop intrikata profiler av all utspridd data.
Anthropic skriver ocksÄ att de inte heller tillÄter att deras modeller styr vapensystem autonomt utan att det finns rigorösa godkÀnda styrdokumenteftersom dagens AI-modeller inte Àr bra nog att fatta beslut. Anthropic utesluter inte att de kommer kunna bli sÄ bra att det inte behövs men Anthropic vill sjÀlva kunna besluta nÀr deras AI Àr redo att kunna anvÀndas i helt autonoma vapensystem utan att det riskerar amerikanska soldaters liv.
Fredag 27 februari 2026
Ăver 600 anstĂ€llda pĂ„ Google och nĂ€stan 100 frĂ„n OpenAI skriver under ett öppet brev dĂ€r de ger sitt offentliga stöd till Anthropic under titeln âWe will not be dividedâ.
Trump gĂ„r ut pĂ„ True Social redan innan deadline har passerat. Han skriver: âTHE UNITED STATES OF AMERICA WILL NEVER ALLOW A RADICAL LEFT, WOKE COMPANY TO DICTATE HOW OUR GREAT MILITARY FIGHTS AND WINS WARS!â Han beordrar alla federala myndigheter i USA att omedelbart sluta anvĂ€nda Anthropics tjĂ€nster. De har sex mĂ„nader pĂ„ sig att fasa ut Anthropic. Det hĂ€r skiljer sig frĂ„n supply-chain risk-stĂ€mpeln som gĂ€ller statens sĂ€kerhet.
Efter deadline gĂ„r ut sĂ„ bekrĂ€ftar Pete Hegseth att Antropic nu klassas som Supply-Chain Risk. Han skriver pĂ„ X: âI am directing the Department of War to designate Anthropic a Supply-Chain Risk to National Security. Effective immediately, no contractor, supplier, or partner that does business with the United States military may conduct any commercial activity with Anthropic. Anthropic will continue to provide the Department of War its services for a period of no more than six months to allow for a seamless transition to a better and more patriotic service. Americaâs warfighters will never be held hostage by the ideological whims of Big Tech. This decision is final.â
Strax dĂ€refter skriver Sam Altman att OpenAI har slutit avtal med Department of War om att deras AI-modeller fĂ„r anvĂ€ndas i deras sĂ€kerhetsklassade nĂ€tverk (dĂ€r endast Anthropics AI-modeller har fĂ„tt vara). Han betonar att de har samma krav som Anthropic, att AI inte ska anvĂ€ndas för massövervakning av amerikanska medborgare och inte för helt autonom krigföring. De förlitar sig dock pĂ„ att detta tĂ€cks av begreppet âlawful useâ.
Lördag 28 februari 2026
USA pÄbörjar kriget mot Iran med Operation Epic Fury natten till lördag kl 01:15.
Privatpersoner pÄ Reddit och X postar hur de stödjer Anthropic och postar bevis pÄ att de sagt upp ChatGPT.
Sam Altman postar delar av avtalet som de har slutit med Department of War för att lugna opinionen.
Dario Amodei publicerar ett officiellt uttalande pÄ Anthropics webbplats dÀr de berÀttar att de kommer ta legal strid mot att ha blivit klassade som supply-chain risk. Men beskriver ocksÄ att det legalt ÀndÄ Àr möjligt att fortsÀtta göra affÀrer med dem sÄ lÀnge deras modeller inte anvÀnds i direkt arbete med uppdrag för Department of War.
Amodai stÀller senare upp pÄ en tv-intervju dÀr han ytterligare förklarar att de Àr patrioter och att det ligger i sann amerikansk anda att vÄga vÀgra vad myndigheter försöker tvinga dem till.
âWe exercised our classic First Amendment rights to speak up and disagree with the government. Disagreeing with the government is the most American thing in the world, and we are patriots in everything we have done here,â
Apple AppStores redaktion lyfter fram Claude-appen som dagens app.
Söndag 1 mars 2026
Claude toppar nedladdade appar pÄ AppStore.
Bojkott av OpenAI har spridit sig till allmÀnheten.
Guardian rapporterar att Claude har anvÀnts i Operation Epic Fury.
MÄndag 2 mars 2026
OpenAI postar att de uppdaterat sitt avtal med Department of War för att tydligare visa att de har samma krav som Anthropic.
Detta förÀndrar ju allt
Först mÄste vi reda ut vad militÀren anvÀnder Claude till. Det hÀr Àr vad vi vet. Claude Àr den första AI-modellen som fÄtt access till sÀkerhetsklassifierade nÀtverk för militÀra ÀndamÄl, det finns flera sÄdana och exakt vad som finns i de som Claude anvÀnds i vet vi inte. Det Àr troligt att Claude hjÀlper till med analys av stora mÀngder information, det har Anthropic rapporterat tidigare. De har Àven sagt att Claude bygger simuleringar av hur militÀra insatser kan gÄ. The Guardian listar underrÀttelseinhÀmtning, val av militÀra mÄl och simuleringar som uppgifter dÀr Claude anvÀnts för invasionen av Iran (detta Àr dock obekrÀftat).
De flesta som chattat med AI kanske tycker att militÀren inte borde lÄta AI sköta sÄ viktiga jobb eftersom vi sett hur en dÄlig prompt kan leda till ett ganska mediokert svar. Men ingen av oss har haft tillgÄng till vad Department of War har. Den AI-modell som de har tillgÄng till har specialutvecklats för Palantirs AI-system för Departement of War. AI-modellen ligger minst en generation före vad vi i allmÀnheten har tillgÄng till. Plus att vi delar datorkraft med alla andra konsumenter. Den hÀr AI-modellen har avsatt kapacitet hos Amazons Top Secret Cloud för bara Department of War som enda kund. Det betyder att om vi skulle jÀmföra vad vi vanliga mÀnniskor fÄr för AI med en smÀllare sÄ fÄr Department of War en fyrverkerifabrik.
I USA radikaliseras allting till kulturkrig sedan mÄnga Är tillbaka. AnhÀngare slukar kulturella hÀndelser och vÀver in dem i sina narrativ. Bubblorna i de sociala mediekanalerna hjÀlper dig att förstÄ att om du inte tillhör det ena lÀgret sÄ tillhör du det andra. Vill du önska nÄgon god jul, dÄ Àr du republikan, vill du anvÀnda Claude, dÄ Àr du vÀnstervriden. 3N Àr en socialpsykologisk modell för att förstÄ hur samtiden just nu tvingar oss mot radikalisering, i korthet gÄr den ut pÄ följande:
Quest for significance. (Need)
Ditt behov av att kÀnna att du spelar roll (ha vÀrdighet/respekt/status) kan trigga radikalisering nÀr du hotas av stark signifikansförlust.SÄ fÄr du signifikans (Narrative)
Du hittar en ideologisk berÀttelse som stÀmmer in pÄ hur du kÀnner. Den förklarar problemet (vi mot dem) och visar dig vad lösningen Àr (det hÀr mÄste vi göra).Du hittar gruppen som hejar pÄ dig (Network)
Det sociala sammanhang som du isolerar dig i som bekrÀftar narrativet och hejar pÄ dig nÀr du agerar.
Den förra teknikrevolutionen med internet ökade mÀnniskors kÀnsla av signifikans. Webbsökning demokratiserade kunskap och personligt lÀrande sÄ att var och en kunde kÀnna fler möjligheter. Jag kunde hitta kurser som lÀrde mig att bli bÀttre pÄ att skapa med Photoshop. Men trots att AI lovar att ytterligare demokratisera vem som kan göra vad sÄ gör AI det genom att exkludera kunskap och personligt lÀrande. Jag slutar anvÀnda Photoshop och ber AI om en snygg bild istÀllet för att skapa sjÀlv. Det skapar signifikansförlust. (Need)
Den politiska retoriken har pushat in Anthropic i att stÄ för liberala vÀrderingar, woke och vÀnstervridenhet. Men de stÄr egentligen utanför höger/vÀnster-skalan. De tillhör den AI-politiska rörelsen EA, Effective Altruism.
Precis som de flesta politiska rörelser sÄ bottnar de i Àdla ideologiska mÄlsÀttningar. De jobbar för att maximera sin positiva impact pÄ vÀrlden genom att se till att det de gör fÄr största möjliga positiva genomslag pÄ största möjliga antal mÀnniskor. De fokuserar ofta pÄ att förebygga problem som kan fÄ stora konsekvenser och som för fÄ fattat vidden av. Anthropic grundades av Dario som var vice president pÄ OpenAIs researchavdelning. Han ansÄg att OpenAI inte tog konsekvenserna av AI-utvecklingen pÄ tillrÀckligt stort allvar. (Narrative)
För altruisterna Àr AI ett verktyg för att göra gott i vÀrlden och de som tror pÄ EA har ocksÄ en stark tilltro till att mÀnniskor kan skapa regelverk som gör AI sÀkrare. Rörelsen har dÀrmed blivit synonym med AI-doomers och Anthropic Àr grundat pÄ dessa vÀrderingar med mÄlet att maximera nytta och förhindra AI frÄn att förinta mÀnskligheten. Det var EA-anhÀngare som försökte avsÀtta Sam Altman frÄn OpenAI.
PÄ andra sidan har vi e/acc (effective acceleration). Precis som altruisterna ser accelererarna att AI kan göra mÀnniskors liv bÀttre, men de tror inte att mÀnniskor kan skapa regler som AI kommer följa. IstÀllet tror de att mÀnniskors politiska brÄkande, vÄra fördomar och dolda agendor kommer att i bÀsta fall kommer att göra AI-sÀkerhetsinitiativ meningslösa och i vÀrsta fall göra det osÀkrare för mÀnskligheten. IstÀllet tror accelererarna att matematiska sjÀlvoptimerande AI-system kommer maximera positivt genomslag för mÀnniskor. Guidelines och regelverk skapar obalans i systemet och medför större risker. För att göra AI sÀkrare mÄste vi se till att all utveckling sÄ snabbt det bara gÄr kommer igenom den fas dÀr vi Àr nu sÄ vi nÄr AGI och SGI (Super Generell Intelligens) dÀr AI blir robust för enskilda personers hemliga agendor och mÀnskliga tillkortakommanden. (Narrative)
BÄde EA och e/acc Àr narrativ som visar för de som har djupa existentialistiska funderingar kring AI och hur vÀrlden kommer förÀndras. BÄda ideologierna visar pÄ hur anhÀngarna kan agera. EA:are ska se till att smarta mÀnniskor som vet bÀst ska fÄ styra och bestÀmma medan e/Acc:are ska se till att smarta mÀnniskor aldrig kan se hela bilden pÄ samma sÀtt som ett statistiskt system inte hindrar utvecklingstakten.
Striden mellan EU (organisationen som förkroppsligar nidbilden av effective altruism anhÀngare i sin iver att reglera och sÀtta upp hinder) och Elon Musk (som dÄ Àr karikatyren av en kaosorienterad accelererare),som jag skrev om hÀr, belyser staters roll efter AI. Jag har ocksÄ skrivit tidigare om hurkrigföring med AI förÀndrar maktbalansen mellan stater. Veckans hÀndelser Àr ytterligare en pÄminnelse om att de stater som har infrastruktur för AI-driven krigföring kommer Trumpa stater som inte har det. Kapplöpningen mellan stater om att kontrollera bÀsta förutsÀttningen för krigföring med AI kommer att motsvara upprustningen i kÀrnvapen pÄ 80-talet. Men med skillnaden att det Àr enskilda aktörer som Anthropic som vill bestÀmma hur dessa vapen ska fÄ anvÀndas.
Narrativen ger oss enkla val, som att stödja OpenAI eller Anthropic. Ăr du inte för det ena sĂ„ Ă€r du medlöpare till det andra. Jag har sjĂ€lv sagt upp OpenAI och anvĂ€nder primĂ€rt Claude just nu. Men det skedde innan det hĂ€r kulturkriget. Jag gjorde bytet eftersom Claude Ă€r bĂ€ttre just nu. I övrigt ser jag inte att det gör nĂ„gon skillnad för oss som inte Ă€r amerikanska medborgare vilken AI-modell vi betalar vĂ„r obligatoriska AI-skatt till.
Varesig OpenAI eller Anthropic har uttalat sig kring huruvida de tycker att det Àr okej om militÀren anvÀnder deras AI till att massövervaka européer. De har i alla uttalanden varit tydliga med att det Àr amerikaner de bryr sig om.
Men allting gÄr att göra om till kulturkrig dÀr meningslösa val uppfattas som stora stÀllningstaganden. Det resulterar i att vi alla drivs att uppfatta oss sjÀlva som radikalister. Det vi kan göra Àr att lÄta val av verktyg vara verktyg istÀllet för fanor i kulturkrig. Proffs vÀljer verktyg som levererar, inte som signalerar, och detta förÀndrar ju allt!
Vad kan du göra idag?
FörstÄ
Maktskiftet mellan stat och Àgare av AI-kapacitet börjar synas Àven utanför techkretsar nu. Modellerna Àr det som spelar roll för tillfÀllet, men pÄ sikt Àr det de med störst serverhallar med mest dedikerad elproduktion som sitter pÄ största makten. I Sverige producerar vi ett stort elöverskott vilket Àr en god förutsÀttning för att ligga bra till om vi bara kan förvandla den elen till compute.
Planera
Vi vet att vilken AI-setup som Àr den bÀsta varierar kraftigt frÄn mÄnad till mÄnad sÄ för att organisationer ska kunna ha en jÀmn konkurrenskraftig setup behöver de kunna byta leverantör blixtsnabbt. Amerikanska militÀren sitter nu fast i en beroendestÀllning till Anthropic som kommer ta mÄnader att ta sig ur.
De flesta större organisationer har ett enda avtal för leverans av AI. Det rÀcker inte. Se till att addera minst en till leverantörskedja.
Gör
LÄt inte andras narrativ fÄ dig att kÀnna dig radikal. Det Àr okej att göra val som inte bygger identitet.
Veckans Gör:
VÀlj ett vardagsbeslut du tar (vilken app du anvÀnder, vilken tjÀnst du betalar för, vilken chips du köper).
FrÄga dig sjÀlv: Vad skulle nÄgon kunna pÄstÄ att det hÀr sÀger om mig?
IfrÄgasÀtt om det pÄverkar ditt val. Skulle du kunna vÀlja nÄgot annat om du tar bort narrativet frÄn valet?
Om valet kĂ€nns mindre laddat nĂ€r du tar bort âvad det signalerarâ, dĂ„ har du hittat ett beslut som som formar din sjĂ€lvbild.
MÄlet Àr att kalibrera hur viktiga vÄra vardagsval Àr sÄ att de inte kapas av kulturella entreprenörer. LÀs gÀrna vad jag har skrivit om polarisering mellan pojkar och flickor tidigare för att fÄ mer tips.
LĂ€nkar
The Guardian rapporterar om hur WSJ rapporterar om att Claude anvÀnds i Venezuela-insatsen. (hittade ingen öppen lÀnk frÄn huvudkÀllan)
https://www.theguardian.com/technology/2026/feb/14/us-military-anthropic-ai-model-claude-venezuela-raid
Department of War föraktar Anthropics sÀtt att bete sig i förhandlingarna och ger ultimatum.
https://x.com/SecWar/status/2027507717469049070
Darios svar tillbaka
https://www.anthropic.com/news/statement-department-of-war
GoogleanstÀlldas öppna brev.
https://notdivided.org/
Sean Parnell tydliggör att det hÀr Àr ett riktigt ultimatum
https://x.com/seanparnellasw/status/2027072228777734474
Trump bannlyser jobb med Anthropic för federala myndigheter
https://truthsocial.com/@realDonaldTrump/posts/116144552969293195
Pete Hegseths officiella deklarering av Anthropic som Supply-chain risk.
https://x.com/SecWar/status/2027507717469049070
Darios svar
https://www.anthropic.com/news/statement-comments-secretary-war
Sam Altman offentliggör samarbetet med Department of War. Han postar exakt samma post tre gÄnger (var det av misstag eller för att sprida ut potentiell backlash?)
https://x.com/sama/status/2027578508042723599
https://x.com/sama/status/2027578580159631610
https://x.com/sama/status/2027578652477821175
Sam Altman utlyser en AMA (ask me anything) för att försöka hantera backlashen
https://x.com/sama/status/2027900042720498089
Anthropic lanserar import memory för att göra det lÀttare att flytta frÄn ChatGPT till Claude.
https://claude.com/import-memory
Dario intervjuas av CBS.
OpenAI uppdatera sitt avtal.
https://openai.com/index/our-agreement-with-the-department-of-war
Ănnu en uppdatering som utesluter NSA
https://www.reuters.com/business/openai-amending-deal-with-pentagon-ceo-altman-says-2026-03-03
Guardian beskriver hur Claude anvÀnds i kriget med Iran
https://www.theguardian.com/technology/2026/mar/03/iran-war-heralds-era-of-ai-powered-bombing-quicker-than-speed-of-thought
3N teorin
https://academic.oup.com/book/35046/chapter-abstract/298932480
Sedan sist vi hördes
Forskning visar att dagens AI-modeller i simulerad krigföring vÀljer kÀrnvapen 95% av gÄngerna. Forskningen Àr sÀkert korrekt, men urvalet av AI-modeller Àr konstigt: GPT-5.2, Claude Sonnet 4 och Gemini 3 Flash Àr inte jÀmförbara. De tvÄ senare Àr modeller som fokuserar pÄ kostnadseffektivitet snarare Àn resultat. Jag övervÀgde att inkludera det hÀr i huvudnyheten men tycker inte att det hÄller för granskning. Det Àr för mycket abstrakt modell för att sÀga nÄgot om hur tunga AI-system skulle agera i krig med mer komplexa parametrar.
Förra fredagen publicerades en radiospecial om Polymarket dÀr jag blev intervjuad. HÀr kan du lyssna: https://www.sverigesradio.se/avsnitt/ar-det-nu-vi-antligen-kan-se-in-i-framtiden
(och missade du nyhetsbrevet om Polymarket sÄ finns det hÀr)
Ăr du en insiktsdelare?
KÀnner du nÄgon som funderar pÄ att bojkotta OpenAI pÄ grund av utspel frÄn amerikanska politiker? Eller kanske nÄgon som behöver fÄ bÀttre koll pÄ maktskiftet mellan staten och kapitalet? Vem tÀnkte du pÄ? Skicka vidare!
SjĂ€lv blev jag inspirerad av Anastasi in Tech den hĂ€r veckan. Tycker du som jag att soldrivna datacenter i rymden verkar vara en jĂ€ttebra idĂ©? Datacenter Ă€r varma, rymden Ă€r kall, det borde kunna bli en lĂ€tt match. Anastasi gĂ„r igenom hela problembilden och pĂ„pekar pĂ„ vĂ€gen att Starlink behöver byta ut 2â4 satelliter i veckan som Ă€r utslitna och blir rymdskrĂ€p, nĂ„got jag hade missat. Hela videon fick mig att gĂ„ frĂ„n att tĂ€nka att vi behöver skynda pĂ„ med datacenter i rymden, till att det Ă€r dömt att misslyckas de nĂ€rmaste 10 Ă„ren. Vilket lĂ€mnar frĂ„gan hur vi ska kunna expandera compute hĂ€r pĂ„ jorden hundrafalt sĂ„ som NVIDIAs Jensen Huang sĂ€ger ska ske redan om 4 Ă„r.
FortsÀtt utforska sÄ ses vi nÀsta vecka!
Tomas Seo
Har du fÄtt dagens nyhetsbrev utan att vara prenumerant?
Gillade du det hÀr och vill ha mer sÄ Àr det bara att skriva upp sig hÀr
(du vÀljer sjÀlv om du vill betala):


