Er is een verhaal dat al een paar dagen de ronde doet en dat, als je het vertelt aan iemand die de technologie niet op de voet volgt, uit een film lijkt te komen. AI-bedrijf zegt nee tegen Pentagon en wordt op de zwarte lijst gezet “risico voor de nationale toeleveringsketen”en binnen 48 uur werd zijn chatbot de meest gedownloade app in Amerika. De rivaal, degene die in plaats daarvan het contract met het ministerie van Defensie heeft ondertekend, krijgt +775% éénsterrenrecensies en een CEO die publiekelijk toegeeft dat hij alles op de slechtst mogelijke manier heeft gecommuniceerd.

Welkom in het tijdperk waarin de reputatie van een technologiebedrijf op het spel staat in de App Store. Maar laten we op volgorde beginnen. Anthropic, het bedrijf dat de Claude-chatbot ontwikkelt, heeft het verzoek van het Amerikaanse ministerie van Defensie afgewezen om zijn kunstmatige intelligentie te kunnen gebruiken zonder de ethische beperkingen die het bedrijf zichzelf had opgelegd: geen autonome wapens, geen massale surveillance van burgers.

De regering-Trump reageerde door Anthropic op een lijst te plaatsen van leveranciers die als “een risico voor de nationale toeleveringsketen” werden beschouwd, waardoor in feite verschillende federale contracten werden beëindigd. Ergo: als je ons niet geeft wat we willen, zetten we je op de zwarte lijst. Dat is precies het soort reactie dat je verwacht van iemand die nog steeds het ‘War Department’ wordt genoemd, aangezien de regering-Trump ook de naam heeft veranderd, een detail dat geen verschil maakt.

OpenAI heeft die overeenkomst inmiddels ondertekend met het Pentagon. Met enkele beperkingen in het contract, zeker, maar hij heeft het ondertekend. Sam Altman gaf later op X toe dat de communicatie zeer slecht was afgehandeld:

We hadden ons niet moeten haasten om vrijdag te publiceren.

Maar de reputatieschade was al geschied.

Claude haalt ChatGPT voor het eerst in in het klassement

Wat er daarna gebeurde, is technisch meetbaar en menselijk gezien best vermakelijk om over te praten. Op 27 februari 2026 groeien het aantal Claude-downloads in de Verenigde Staten met 37%. De volgende dag met 51%. Het aantal verwijderde ChatGPT-verwijderingen schiet omhoog naar +295% vergeleken met het dagelijkse gemiddelde.

Voor de eerste keer ooit overtreft Claude ChatGPT in dagelijkse downloads, komt als eerste in de Amerikaanse App Store en blijft daar dagenlang. Er verschijnt een bericht op Reddit met de titel “ChatGPT annuleren en verwijderen!!!” met dertigduizend stemmen. Er werd zelfs een site gemaakt, CancelChatGPT.com, die uitsluitend bedoeld was om gebruikers te begeleiden bij het verwijderen van hun accounts, met stapsgewijze instructies, alsof het verwijderen van een app een vorm van burgerlijk activisme was geworden, compleet met tutorials. En in zekere zin werd het één, in ieder geval voor een paar dagen.

Het aantal betaalde abonnees van Claude is sinds het begin van het jaar meer dan verdubbeld, het aantal dagelijkse nieuwe gebruikers is verdrievoudigd in vergelijking met november 2024. Vóór de Super Bowl in februari stond Anthropic op de 42e plaats in de Amerikaanse App Store-hitlijsten. Toen kwam de week van controverse en de eerste plaats.

De ingewikkelde kant van het verhaal

Dat gezegd hebbende, is de situatie veel minder duidelijk dan het lijkt. Anthropic heeft een actief partnerschap met Palantir en Amazon Web Services, afgesloten in november 2024, waardoor Amerikaanse inlichtingendiensten en defensiedepartementen toegang krijgen tot Claude-modellen. Sommige deskundigen betwijfelen of Claude mogelijk al betrokken is geweest bij het plannen van militaire operaties, ondanks het formele verbod van het bedrijf. In de praktijk: Anthropic verkoopt niet rechtstreeks aan het Pentagon, maar aan degenen die aan het Pentagon verkopen. Het verschil is juridisch, niet moreel.

Dit wil niet zeggen dat de afwijzing van Anthropic slechts een marketingactie was, aangezien Dario Amodei echte federale contracten verloor, wat reële economische kosten met zich meebrengt. Het betekent echter dat het verhaal van ‘goede’ versus ‘slechte’ kunstmatige intelligentie zo’n handige vereenvoudiging is dat het argwaan wekt. Als een instrument eenmaal bestaat, wordt het beoogde gebruik ervan niet langer bepaald door degenen die het hebben gebouwd.

Wat overblijft, zodra de achtergrondruis is verwijderd, is een interessant feit: mensen beginnen hun digitale hulpmiddelen ook te kiezen op basis van wie ze produceert en hoe ze zich gedragen. Het is een echte, afgemeten, snelle gedragsverandering. Of het nu gedreven wordt door diepe overtuigingen of door de emotionele golf van een weekend op sociale media, dat is voorlopig lastig te zeggen. Waarschijnlijk allebei, zoals bijna altijd.

Wat zeker is, is dat reputatie op de markt voor kunstmatige intelligentie is getransformeerd in een concrete concurrentievariabele: niet langer slechts een waarde die op de institutionele website wordt vermeld, maar iets dat binnen achtenveertig uur miljoenen downloads genereert. Voor technologiebedrijven die gewend zijn alles in cijfers om te zetten, behalve vertrouwen, is dit het soort probleem waarvan ze niet wisten dat ze het in een Excel-sheet moesten zetten. En nu hebben ze het daar, lekker groot, in de schadekolom.

Mogelijk bent u ook geïnteresseerd in: