Die öffentliche Diskussion über die Zusammenarbeit von Anthropic und OpenAI mit dem Verteidigungsministerium macht deutlich, dass KI-Tools bereits Teil der Kriegsführung sind.
Wenn selbst das Silicon Valley moralische Bedenken äußert, sollte man aufmerksam werden. In den vergangenen Wochen hat sich ein Konflikt zwischen der KI-Branche und der US-Regierung entwickelt. Auslöser war ein Auftrag, der bereits im vergangenen Sommer erteilt wurde.
- Für dich interessant: OpenClaw ist tot, lange lebe OpenClaw
200-Millionen-Auftrag der US-Verteidigung
Anthropic, das Unternehmen hinter dem KI-Tool Claude, erhielt im Juli 2025 einen Auftrag in Höhe von 200 Millionen US-Dollar vom US-Verteidigungsministerium und dem Büro für Künstliche Intelligenz. Im Rahmen dieser Partnerschaft sollte Anthropic Lösungen entwickeln, die die nationale Sicherheit fördern. Nach langen Verhandlungen scheiterte diese Zusammenarbeit jedoch im Februar 2026, da Anthropic Sicherheitsbedenken hatte. In einer Stellungnahme begründete das KI-Unternehmen das Ende des Deals damit, dass es Massenüberwachung und den Einsatz von KI bei vollautonomen Waffen nicht unterstützen wolle.
Zwei Tage später, am 28. Februar, gab der Konkurrent OpenAI bekannt, den Auftrag des Verteidigungsministeriums übernommen zu haben. Das Unternehmen hinter ChatGPT stellte jedoch klar, dass es weder Massenüberwachung noch vollautonome Waffen unterstütze. Die Tatsache, dass die Partnerschaft mit Anthropic daran scheiterte, dass man dem Ministerium keine vollständige Kontrolle gewähren wollte, lässt jedoch vermuten, dass OpenAI allen Forderungen des Auftraggebers nachkommen wird.
Mitarbeiter:innen fordern verantwortungsvolle Zusammenarbeit
Für Anthropic hatte der offene Konflikt mit dem Verteidigungsministerium bereits Konsequenzen: Anfang März stufte das Pentagon die Produkte des Start-ups als Risiko für die Lieferketten in der Verteidigung ein. Dennoch wird Claude Berichten zufolge aktuell vom Militär beim Angriff auf den Iran eingesetzt.
Auch bei OpenAI gibt es unterschiedliche Meinungen zur Zusammenarbeit mit der US-Regierung. In einem offenen Brief, den 100 aktuelle OpenAI-Mitarbeiter:innen und fast 900 Google-Mitarbeiter:innen unterzeichnet haben, appellieren sie an ihre Arbeitgeber: „Sie versuchen, jedes Unternehmen zu spalten, indem sie Angst schüren, dass die anderen nachgeben könnten. Diese Strategie funktioniert nur, wenn keiner von uns weiß, wo die anderen stehen. Dieser Brief dient dazu, angesichts des Drucks seitens des Kriegsministeriums ein gemeinsames Verständnis und Solidarität zu schaffen.“ Und weiter: „Wir hoffen, dass unsere Führungen ihre Differenzen beiseitelegen und gemeinsam weiterhin die aktuellen Forderungen des Kriegsministeriums ablehnen, unsere Modelle für die Massenüberwachung im Inland und die autonome Tötung von Menschen ohne menschliche Aufsicht zu nutzen.“
Hier kommt der dritte große Tech-Player ins Spiel: Auch die Google-KI Gemini kommt beim Militär zum Einsatz. Die Belegschaften von OpenAI und Google befürchten offenbar, dass die Technologien missbraucht werden könnten und die Geschäftsführungen zu wenig Widerstand leisten, während die Anthropic-Geschäftsführung sich öffentlich gegen die Praktiken des Verteidigungsministeriums ausgesprochen hat.
Claude überholt ChatGPT
Der Unmut geht sogar soweit, dass eine Führungskraft bei OpenAI gekündigt hat. Robotik-Chefin Caitlin Kalinowski begründet den Schritt ebenfalls mit Bedenken bei der Überwachung von US-Bürger:innen und „tödlicher Autonomie“. Das Unternehmen kontert darauf, dass die Zusammenarbeit mit dem Ministerium einen „gangbaren Weg für den verantwortungsvollen Einsatz von KI im Bereich der nationalen Sicherheit“ schaffe und gleichzeitig die Grenzen klar definiert worden seien: „keine Überwachung im Inland und keine autonomen Waffen“.
Der offene Brief und die personellen Konsequenzen deuten jedoch darauf hin, dass die Branche – oder zumindest die Mitarbeitenden – diesen Ankündigungen nicht traut. Dieses Misstrauen ist inzwischen auch bei den Nutzer:innen spürbar. Nachdem der Deal mit dem Verteidigungsministerium geplatzt ist, hat Claude zumindest vorübergehend ChatGPT in den App-Charts überholt.
Vielmehr wird durch die öffentliche Diskussion über die Zusammenarbeit mit dem Verteidigungsministerium – das US-Präsident Donald Trump übrigens in „Kriegsministerium“ umbenannt hat – sichtbar, welche Rolle Künstliche Intelligenz bereits bei der Kriegsführung spielt. Wer den Einsatz eines Tools, das auch in der US-Verteidigung verwendet wird, problematisch findet, sollte daher nicht nur auf ChatGPT, sondern auch auf Claude und Gemini verzichten.
Elisabeth Oberndorfer schreibt jede Woche eine Kolumne zum Thema Ökonomie. Alle Texte findet ihr auch in ihrem Autor:innenprofil.
Dir hat dieser Beitrag besonders gut gefallen, dir ist ein Fehler aufgefallen oder du hast Hinweise für uns - sag uns deine Meinung unter feedback@wienerzeitung.at. Willst du uns helfen, unser gesamtes Produkt besser zu machen? Dann melde dich hier an.
Infos und Quellen
Daten und Fakten
- Das Startup Anthropic verlor einen Auftrag des US-Verteidigungsminsteriums an OpenAI, weil man nicht den Forderungen des Auftraggebers nachgeben wollte.
- In einem offenen Brief fordern Mitarbeiter:innen von OpenAI und Google, dass die Massenüberwachung von Bürger:innen und der Einsatz von vollautonomen Waffen nicht unterstützt werden soll.
- Claude, der Chatbot von Anthropic, hat nach dem geplatzten Deal ChatGPT im App Store überholt.
- Das US-Militär hat sowohl ChatGPT als auch die Google-KI Gemini und weiterhin Claude im Einsatz.
Quellen
- Anthropic: Ankündigung zur Partnerschaft mit dem Verteidigungsministerium
- Anthropic: Stellungnahme: Where things stand with the Department of War
- CNBC: Anthropic officially told by DOD that it’s a supply chain risk even as Claude used in Iran
- OpenAI: Our agreement with the Department of War
- Not Divided: Offener Brief von Google und OpenAI
- Bloomberg: OpenAI’s Head of Robotics Resigns Over Company’s Pentagon Deal
- US-Kriegsministerium: The War Department Unleashes AI on New GenAI.mil Platform
- Heise: Claude überholt nach Streit mit dem Pentagon ChatGPT im App Store
)
)
)