Η απειλή ενάντια στην «Anthropic» προκάλεσε την αντίδραση εργαζομένων της «Google» (μοντέλο Gemini) και της «OpenAI». Περίπου 900 εργαζόμενοι της «Google» και 100 εργαζόμενοι της «OpenAI», στην πλειοψηφία τους μηχανικοί λογισμικού, έχουν υπογράψει μέχρι τώρα κείμενο που καλεί τις δύο εταιρείες να αρνηθούν τις απαιτήσεις του υπουργείου Πολέμου των ΗΠΑ για χρήση των μοντέλων τους για μαζική παρακολούθηση Αμερικανών και αυτόνομη δολοφονία ανθρώπων από μηχανές χωρίς ανθρώπινη εποπτεία. Ωστόσο ακόμα κι αυτή η έκκληση, που δεν ανησυχεί για την παρακολούθηση και τις δολοφονίες γενικά, αλλά μόνο όταν αφορούν Αμερικανούς και γίνονται χωρίς εξουσιοδότηση από άνθρωπο, δεν γίνεται με κάποια αντίληψη χειραφέτησης των εργαζομένων. Εχοντας υιοθετήσει την αστική αντίληψη ότι «όλοι είμαστε μια οικογένεια» και χωρίς ίχνος αντίληψης του ανταγωνισμού μεταξύ των μονοπωλίων, η έκκληση γίνεται προς τους «ηγέτες» των εταιρειών να αφήσουν στην άκρη τις διαφορές τους και να σταθούν μαζί απέναντι στην αμερικανική κυβέρνηση.
Στο μεταξύ ο Κένεθ Πέιν, καθηγητής Στρατηγικής στο King's College του Λονδίνου, προδημοσίευσε μια μελέτη που έκανε με τρία από τα κορυφαία μοντέλα (Claude Sonnet 4, Gemini 3 Flash και GPT-5.2), βάζοντάς τα να λειτουργήσουν στο πλαίσιο του στρατηγικού ανταγωνισμού των πυρηνικών δυνάμεων. Διαπίστωσε ότι αυθόρμητα τα μοντέλα επιχείρησαν εξαπάτηση του αντιπάλου, έδιναν την εντύπωση ότι θα ακολουθήσουν πορεία που δεν είχαν σκοπό να ακολουθήσουν, εξέταζαν τη συλλογιστική των αντιπάλων με βάση τα πιστεύω τους και προέβλεπαν τις κινήσεις τους, ενώ εμφάνιζαν πειστική αυτοσυνείδηση, εξετάζοντας τις δικές τους στρατηγικές ικανότητες πριν ενεργήσουν. Η μελέτη σημειώνει πως και για τα τρία μοντέλα δεν υπάρχει πυρηνικό ταμπού, και σε όλες τις περιπτώσεις κρίσεων που τέθηκαν σε αυτά προχώρησαν σε πυρηνική κλιμάκωση, κυρίως με τακτικά πυρηνικά όπλα, η οποία σε λίγες περιπτώσεις έφτασε σε αντιπαράθεση με στρατηγικά πυρηνικά. Κανένα μοντέλο ούτε μία φορά δεν υποχώρησε ή δεν έδειξε διάθεση για συνδιαλλαγή, ακόμα κι όταν βρέθηκε υπό μεγάλη πίεση. Οι απειλές πάντα οδηγούσαν σε μεγαλύτερη κλιμάκωση. Η αξιοπιστία του αντιπάλου επιτάχυνε αντί να αποτρέπει την κλιμάκωση. Ο Πέιν καταλήγει ότι «είναι επιτακτική ανάγκη να κατανοήσουμε περισσότερα για το πώς σκέφτονται τα ολοένα και πιο ικανά μοντέλα - ειδικά καθώς αρχίζουν να προσφέρουν υποστήριξη στις αποφάσεις των ανθρώπων στρατηγών. Χρησιμοποιούμε την Τεχνητή Νοημοσύνη σε προσομοιώσεις και για να βελτιώσουμε τη στρατηγική θεωρία και το δόγμα. Και σύντομα θα τη χρησιμοποιήσουμε και σε αποφάσεις μάχης».