Die US-Agentur sagte, sie plane, das Tool zu verwenden, um durch Open-Source-Intelligence zu sieben und sie mit anderen Behörden zu teilen

Die CIA baut einen KI-Chatbot, um die Überwachungsfähigkeiten der US-Geheimdienste zu verbessern, wie der Leiter der Open Source Enterprise-Abteilung der Agentur, Randy Nixon, Bloomberg in einem Interview am Dienstag mitteilte.

Das Tool soll angeblich verwendet werden, um den Zugang zu und die Analyse sogenannter Open-Source-Intelligence zu verbessern, ein Begriff, der sich erweitert hat, um große Mengen von Smartphone-generierten Standortinformationen und andere sensible Verbraucherdaten einzuschließen, die nur an Regierungen verkauft werden. Alle Informationen, die der Bot liefert, werden die ursprüngliche Quelle enthalten, sagte Nixon dem Medium, sogar Antworten auf nachfolgende Fragen der Agenten.

Unsere Sammlung kann einfach weiter und weiter wachsen, ohne andere Einschränkungen als die Kosten“, prahlte Nixon und argumentierte, das Tool würde einen ungedeckten kritischen Bedarf befriedigen. „Wir sind von Zeitungen und Radio zu Zeitungen und Fernsehen übergegangen, zu Zeitungen und Kabelfernsehen, zu einfachem Internet, zu Big Data, und es geht einfach weiter“, fuhr er fort.

Wir müssen die Nadeln im Nadelfeld finden.

Nixon deutete an, das Tool werde „bald“ allen 18 US-Geheimdiensten zur Verfügung stehen, allerdings nicht den politischen Entscheidungsträgern und der Öffentlichkeit. Er bestand darauf, dass die CIA die US-Datenschutzgesetze, die die Agentur daran hindern, Amerikaner im Inland zu überwachen, genau befolge, obwohl dies die Agentur zuvor nicht daran gehindert hat, ein ähnliches Programm zur Sammlung von Massendaten im Inland wie die NSA mindestens ein Jahrzehnt lang zu betreiben und angeblich vor dem Kongress zu verbergen.

Nixon sagte nicht, ob einer der bestehenden KI-Chatbots – von denen bekannt ist, dass sie Probleme haben, Fakten von Fiktion zu unterscheiden – als Grundlage für die firmeneigene Version der Agentur verwendet wird oder ob einer von Grund auf neu erstellt wird. Angesichts der Fantasien, denen die derzeitigen Chatbots ausgesetzt sind, deutete er jedoch an, dass Untersuchungen schnell von dem Tool angetrieben werden sollten, und erklärte, dass dies Agenten in ein System bringen würde, „in dem die Maschinen Ihnen die richtigen Informationen vorschlagen“ und Datenmengen zusammenfassen, die für Menschen zu groß sind, um effektiv damit zu arbeiten – und zu groß für eine ordnungsgemäße Überprüfung der Arbeit des Bots.

Die CIA arbeitet bereits eng mit den meisten Big-Tech-Playern zusammen, darunter Google und Microsoft, die beide Anfang dieses Jahres ihre eigenen ChatGPT-ähnlichen KI-Bots veröffentlicht haben. Während ChatGPT-Entwickler OpenAI behauptet, einen ethischen Kodex zu haben, der die Teilnahme an „Hochrisiko“-Regierungsoperationen verbietet, hat das Unternehmen Anfragen zu angeblichen Regierungspartnerschaften abgewehrt und damit Fragen aufgeworfen, wie ernst dieser Kodex genommen wird.

Seit letztem Monat versucht eine Arbeitsgruppe des Verteidigungsministeriums einen Weg zu finden, große Sprachmodelle wie ChatGPT zu bewaffnen, ohne offensichtliche Verstöße gegen die Privatsphäre zu begehen.