Pentagon bezeichnet Anthropic als „Risiko in der Lieferkette“
Die US-Regierung beschuldigt das Unternehmen für künstliche Intelligenz Anthropic, Angehörige der Streitkräfte zu gefährden, indem es die rechtmäßige Nutzung seiner KI-Software Claude selbst einschränkt. Folglich hat die Regierung Anthropic gestern als Risiko in der Lieferkette eingestuft, eine Bezeichnung, die normalerweise für Unternehmen von ausländischen Gegnern reserviert ist. Das Etikett verbietet dem Militär und seinen zahlreichen Vertragspartnern, mit dem Unternehmen Geschäfte zu machen. Dies folgt auf Berichte, wonach das US-Militär Claude AI zur Gefangennahme des venezolanischen Präsidenten Nicolás Maduro eingesetzt hat und sie für nachrichtendienstliche Analysen und Zielbewertungen im Iran verwendet. Das Militär wurde angewiesen, die Claude-KI auslaufen zu lassen und sie durch eine oder mehrere KI-Konkurrenten zu ersetzen. Der Streit unterstreicht die Bedeutung von und das Vertrauen in künstliche Intelligenz, trotz der Unbekannten und der Risiken, wie sie in „Warum wir KI entwickeln müssen (selbst wenn sie uns umbringt).“