Gericht blockiert Pentagon-Vorgehen gegen KI-Firma Anthropic

Die KI-Firma Anthropic verbot die Nutzung ihrer Technik für autonome Waffen und Massenüberwachung – und wurde für das Pentagon zum Gegner. Ein Gericht stoppt das Vorgehen des Ministeriums.
dpa |
X
Sie haben den Artikel der Merkliste hinzugefügt.
zur Merkliste
Merken
lädt ... nicht eingeloggt
Teilen
Antrhopic will im Streit mit dem US-Verteidigungsministerium nicht klein beigeben. (Archivbild)
Antrhopic will im Streit mit dem US-Verteidigungsministerium nicht klein beigeben. (Archivbild) © Andrej Sokolow/dpa
San Francisco

Die KI-Firma Anthropic hat einen Etappensieg in ihrem Streit mit dem Pentagon über die Verwendung Künstlicher Intelligenz im Militär errungen. Eine Richterin erließ eine einstweilige Verfügung, mit der die Einstufung von Anthropic als Lieferketten-Risiko für die nationale Sicherheit blockiert werden soll. Sie tritt erst nach sieben Tagen in Kraft. Das soll der US-Regierung die Möglichkeit geben, die einstweilige Verfügung noch vor einem Berufungsgericht anzufechten.

Anthropic beharrt darauf, dass KI-Modelle des Unternehmens nicht zur Massenüberwachung von Amerikanern sowie in autonomen Waffensystemen genutzt werden dürfen. Das US-Verteidigungsministerium fordert hingegen die Rechte für "jede rechtmäßige Nutzung" ein und betont, dass kein Unternehmen der Regierung Vorschriften machen könne.

Da Anthropic nicht nachgab, erklärte das Pentagon die Firma zum "Supply-Chain Risk to National Security" (Lieferketten-Risiko für die nationale Sicherheit). Präsident Donald Trump ordnete an, dass alle US-Bundesbehörden die Nutzung von Anthropic-Technologie einstellen sollen.

Zudem hieß es von Verteidigungsminister Pete Hegseth, dass auch alle Unternehmen ihre Geschäftsbeziehungen zu Anthropic kappen müssten, wenn sie das US-Militär beliefern wollten. Es ist höchst ungewöhnlich, dass eine US-Firma zum Lieferketten-Risiko erklärt wird. Das schließt ein Unternehmen von Regierungsaufträgen aus.

Richterin: rechtswidrig und willkürlich

Richterin Rita Lin betonte in San Francisco, dass es dem Verteidigungsministerium freistehe, keine Anthropic-Produkte zu verwenden. Die Regierung scheine mit ihrem Vorgehen aber die Firma darüber hinaus für deren öffentliche Kritik bestrafen zu wollen, und das wäre eine Verletzung der verfassungsrechtlichen Redefreiheit. Die Einstufung als Lieferketten-Risiko sei wahrscheinlich rechtswidrig und willkürlich, schrieb die Richterin zur Begründung ihrer einstweiligen Verfügung.

Anthropic: KI nicht verlässlich genug

Anthropic-Chef Dario Amodei warnt, dass Künstliche Intelligenz es möglich mache, über das Netz verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem detaillierten Bild ihres Lebens zusammenzusetzen. Zugleich sei KI noch nicht verlässlich genug, um in vollständig autonomen Waffen eingesetzt zu werden. "Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Kämpfer und Zivilisten in Gefahr bringt", schrieb Amodei in einem Blogbeitrag.

OpenAI will Lücke füllen

Anthropic war bisher die einzige KI-Firma, deren Software auch für eine als vertraulich eingestufte Nutzung im US-Militär freigegeben war. Der ChatGPT-Erfinder OpenAI schloss nach dem Vorgehen gegen Anthropic eine Vereinbarung mit dem Verteidigungsministerium.

Hinweis: Diese Meldung ist Teil eines automatisierten Angebots der nach strengen journalistischen Regeln arbeitenden Deutschen Presse-Agentur (dpa). Sie wird von der AZ-Onlineredaktion nicht bearbeitet oder geprüft. Fragen und Hinweise bitte an feedback@az-muenchen.de

Lädt
Anmelden oder registrieren

Zum Login
Zu meinen Themen hinzufügen

Hinzufügen
Sie haben bereits von 15 Themen gewählt

Bearbeiten
Sie verfolgen dieses Thema bereits

Entfernen
Um "Meine AZ" nutzen zu können, müssen Sie der Datenspeicherung zustimmen.

Zustimmen
Teilen
lädt ... nicht eingeloggt
 
merken
Nicht mehr merken
X

Sie haben den Inhalt der Merkliste hinzugefügt.