KI-gestützte Kampfdrohnen

4.9.2023

A.I. Brings the Robot Wingman to Aerial Combat
(Eric Lipton, New York Times, 28.8.2023)

Es wird von einem Raketentriebwerk im Flug angetrieben. Es kann eine Distanz zurücklegen, die der Breite Chinas entspricht. Es verfügt über ein Tarnsystem und ist in der Lage, Raketen zu tragen, die feindliche Ziele weit außerhalb seiner Sichtweite treffen können.

Aber was das pilotlose Experimentalflugzeug XQ-58A Valkyrie der Luftwaffe wirklich auszeichnet, ist, dass es von künstlicher Intelligenz gesteuert wird und damit an der Spitze der Bemühungen des US-Militärs steht, die Kapazitäten einer aufstrebenden Technologie zu nutzen, deren enorme potenzielle Vorteile durch tiefgreifende Bedenken darüber, wie viel Autonomie einer tödlichen Waffe gewährt werden soll, eingeschränkt werden.

Im Wesentlichen handelt es sich bei der Valkyrie um eine Drohne der nächsten Generation. Sie ist ein Prototyp dessen, was die Air Force zu einer wirksamen Ergänzung ihrer Flotte traditioneller Kampfflugzeuge machen möchte, indem sie menschlichen Piloten einen Schwarm hochleistungsfähiger Roboter-Wingmen an die Hand gibt, die sie im Kampf einsetzen können. Ihre Aufgabe besteht darin, künstliche Intelligenz und seine Sensoren zu vereinen, um feindliche Bedrohungen zu identifizieren und zu bewerten und dann, nach Zustimmung des Menschen, zur Tötung überzugehen.

Major Ross Elder

Vor kurzem bereitete sich Maj. Ross Elder, 34, ein Testpilot aus West Virginia, auf dem Luftwaffenstützpunkt Eglin an der Golfküste Floridas auf eine Übung vor, bei der er seinen F-15-Jäger neben der Valkyrie fliegen sollte.

„Es ist ein sehr seltsames Gefühl“, sagte Major Elder, als andere Mitglieder des Air Force-Teams sich darauf vorbereiteten, den Motor der Valkyrie zu testen. „Ich begleite etwas, das seine eigenen Entscheidungen trifft. Und es ist kein menschliches Gehirn.“

Das Valkyrie-Programm bietet einen Einblick in die Art und Weise, wie das US-Waffengeschäft, die Militärkultur, die Kampftaktiken und der Wettbewerb mit rivalisierenden Nationen durch den raschen technologischen Fortschritt auf möglicherweise weitreichende Weise verändert werden.

Das Aufkommen künstlicher Intelligenz trägt dazu bei, eine neue Generation von Pentagon-Auftragnehmern hervorzubringen, die versuchen, die langjährige Vormachtstellung der Handvoll Riesenfirmen, die die Streitkräfte mit Flugzeugen, Raketen, Panzern und Schiffen beliefern, zu untergraben oder zumindest zu behindern.

Die Möglichkeit, Flotten intelligenter, aber relativ kostengünstiger Waffen zu bauen, die in großer Zahl eingesetzt werden könnten, ermöglicht es den Beamten des Pentagons, über den Kampf gegen feindliche Streitkräfte auf neue Weise nachzudenken.

Es zwingt sie auch dazu, sich der Frage zu stellen, welche Rolle Menschen in Konflikten spielen sollten, die mit Software ausgetragen werden, die zum Töten geschrieben wurde, eine Frage, die für die Vereinigten Staaten angesichts ihrer Vergangenheit an Fehlangriffen mit konventionellen Drohnen, die zivile Opfer forderten, besonders heikel ist.

Und die Erlangung und Aufrechterhaltung eines Vorsprungs in der künstlichen Intelligenz ist ein Element eines zunehmend offenen Wettlaufs mit China um die technologische Überlegenheit in der nationalen Sicherheit.

Militärplaner befürchten, dass man sich nicht mehr darauf verlassen kann, dass die aktuelle Mischung aus Luftwaffenflugzeugen und Waffensystemen – trotz der in sie investierten Billionen Dollar – dominieren wird, wenn ein umfassender Konflikt mit China ausbricht, insbesondere wenn es zu einer chinesischen Invasion in Taiwan kommt.

Das liegt daran, dass China seine Küsten und die künstlichen Inseln, die es im Südchinesischen Meer errichtet hat, mit mehr als tausend Anti-Schiffs- und Flugabwehrraketen sichert, was die Fähigkeit der Vereinigten Staaten, auf eine mögliche Invasion Taiwans ohne massiven Angriff zu reagieren, durch zu erwartende massive Verluste in der Luft und auf See, beschneidet.

Nachdem jahrzehntelang immer weniger und immer teurere Kampfflugzeuge gebaut wurden – der F-35-Kampfjet kostet 80 Millionen US-Dollar pro Einheit – verfügt die Air Force nun über die kleinste und älteste Flotte in ihrer Geschichte.

Hier kommt die neue Generation der KI-Drohnen, sogenannte kollaborative Kampfflugzeuge, ins Spiel. Die Air Force plant, 1.000 bis 2.000 davon für nur 3 Millionen US-Dollar pro Stück oder einen Bruchteil der Kosten eines fortschrittlichen Kampfflugzeugs zu bauen, weshalb einige bei der Air Force das Programm „erschwingliche Masse“ nennen.

Es wird eine Reihe spezieller Typen dieser Roboterflugzeuge geben. Einige werden sich auf Überwachungs- oder Nachschubmissionen konzentrieren, andere werden in Angriffsschwärmen fliegen und wieder andere werden einem menschlichen Piloten als „treuer Wingman“ dienen.

Die Drohnen könnten beispielsweise vor bemannten Kampfflugzeugen fliegen und so eine frühzeitige, risikoreiche Überwachung durchführen. Sie könnten auch eine wichtige Rolle dabei spielen, die feindliche Luftabwehr außer Gefecht zu setzen, indem sie das Risiko eingehen, landgestützte Raketenziele auszuschalten, die für ein von Menschen gesteuertes Flugzeug als zu gefährlich gelten würden.

Künstliche Intelligenz– eine spezielle der Art von Programmierung, die heute vor allem für die Beschaffung und Bereitstellung von Daten für Chatbots bekannt ist – würde Informationen von seinen Sensoren sammeln und auswerten, wenn es sich feindlichen Streitkräften nähert, um Bedrohungen und hochwertige Ziele zu identifizieren, und den menschlichen Piloten vor dem Start um Erlaubnis bitten, Angriff mit seinen Bomben oder Raketen auszuführen.

Die billigsten Drohnen gelten als entbehrlich, was bedeutet, dass sie wahrscheinlich nur eine einzige Mission haben. Laut einer Schätzung des Repräsentantenhauses könnten anspruchsvollere dieser Roboterflugzeuge bis zu 25 Millionen US-Dollar kosten, immer noch weit weniger als ein bemannter Kampfjet.

„Ist das die eine perfekte Antwort? Wenn man in die Zukunft blickt, gibt es nie eine perfekte Antwort“, sagte Generalmajor R. Scott Jobe, der bis zu diesem Sommer für die Festlegung der Anforderungen für das Luftkampfprogramm verantwortlich war, da die Luftwaffe daran arbeitet, KI in seine Kampfjets und Drohnen einzubinden.

„Aber man kann potenzielle Gegner vor Dilemmata stellen – und eines dieser Dilemmata ist die Masse“, sagte General Jobe in einem Interview im Pentagon und bezog sich dabei auf den Einsatz einer großen Anzahl von Drohnen gegen feindliche Streitkräfte. „Man kann mit potenziell weniger Leuten Masse in den Kampfraum bringen.“

Die Bemühungen stellen den Beginn einer gewaltigen Veränderung in der Art und Weise dar, wie die Luftwaffe einige ihrer wichtigsten Werkzeuge kauft. Nachdem sich das Pentagon jahrzehntelang auf den Kauf von Hardware konzentriert hat, die von traditionellen Auftragnehmern wie Lockheed Martin und Boeing hergestellt wurde, verlagert sich der Schwerpunkt auf Software, die die Leistungsfähigkeit von Waffensystemen verbessern kann, wodurch neuere Technologieunternehmen die Möglichkeit haben, sich Teile des riesigen Beschaffungsbudgets des Pentagon zu sichern .

„Maschinen greifen tatsächlich auf die Daten zurück und erzeugen dann ihre eigenen Ergebnisse“, sagte Brig. General Dale White, der Pentagon-Beamte, der für das neue Aquisitionsprogramm verantwortlich war.

Die Luftwaffe ist sich bewusst, dass sie sich auch mit großen Bedenken hinsichtlich des militärischen Einsatzes künstlicher Intelligenz auseinandersetzen muss, sei es mit der Angst, dass sich die Technologie gegen ihre menschlichen Schöpfer wenden könnte (wie Skynet in der „Terminator“-Filmreihe), oder mit unmittelbareren Bedenken, Algorithmen den Einsatz tödlicher Gewalt steuern zu lassen.

„Sie überschreiten eine moralische Grenze, indem Sie das Töten an Maschinen auslagern – indem Sie Computersensoren anstelle von Menschen erlauben, Menschenleben zu töten“, sagte Mary Wareham, die Interessenvertretung der Waffenabteilung von Human Rights Watch, die sich für internationale Grenzen zu sogenannten tödlichen autonomen Waffen einsetzt.

Eine kürzlich überarbeitete Pentagon-Richtlinie zum Einsatz künstlicher Intelligenz in Waffensystemen erlaubt den autonomen Einsatz tödlicher Gewalt – aber jeder konkrete Plan zum Bau oder Einsatz einer solchen Waffe muss zunächst von einem speziellen Militärgremium überprüft und genehmigt werden.

Auf die Frage, ob Drohnen der Luftwaffe irgendwann in der Lage sein könnten, tödliche Angriffe durchzuführen, ohne dass jeder Angriff ausdrücklich von einem Menschen genehmigt werden muss, sagte eine Sprecherin des Pentagons in einer Erklärung gegenüber der New York Times, dass die Frage zu hypothetisch sei, um sie zu beantworten.

Jede autonome Drohne der Luftwaffe, heißt es in der Erklärung, müsse „so konzipiert sein, dass sie es Kommandanten und Bedienern ermöglicht, ein angemessenes Maß an menschlichem Urteilsvermögen über den Einsatz von Gewalt auszuüben“.

Beamte der Luftwaffe sagten, sie seien sich völlig darüber im Klaren, dass Maschinen nicht so intelligent seien wie Menschen. Auch die KI-Technik kann Fehler machen – wie es in den letzten Jahren bei selbstfahrenden Autos immer wieder passiert ist – und Maschinen haben keinen eingebauten moralischen Kompass. Die Beamten sagten, sie hätten diese Faktoren beim Aufbau des Systems berücksichtigt.

„Es ist eine gewaltige Verantwortung“, sagte Col. Tucker Hamilton, der Chef der A.I. Air Force. Test and Operations, der auch bei der Beaufsichtigung der Flugtestteams auf der Eglin Air Force Base hilft, stellt fest, dass „dystopisches Geschichtenerzählen und Popkultur eine Art Wahnsinn“ rund um die künstliche Intelligenz erzeugt haben.

„Wir müssen einfach methodisch, bewusst und ethisch dorthin gelangen – in kleinen Schritten“, sagte er.

Der lange, holzgetäfelte Korridor im Pentagon, in dem die Spitzen der Luftwaffe ihre Büros haben, ist gesäumt von Porträts von Anführern aus einem Jahrhundert, gemischt mit Bildern der Fluggeräte, die den Vereinigten Staaten seit dem 2. Weltkrieg die weltweite Vorherrschaft in der Luft verschaffen.

Aus den Bildern geht ein gemeinsames Thema hervor: die ikonische Rolle des Piloten.

Menschen werden weiterhin eine zentrale Rolle in der neuen Vision der Luftwaffe spielen, sagten hochrangige Pentagon-Beamte, aber sie werden zunehmend mit Software-Ingenieuren und Experten für maschinelles Lernen zusammenarbeiten, die die Algorithmen für den Betrieb der Roboter-Wingmen, die mit ihnen fliegen, ständig verfeinern.

Nahezu jeder Aspekt des Luftwaffeneinsatzes muss überarbeitet werden, um diesem Wandel gerecht zu werden. Es ist eine Aufgabe, die diesen Sommer größtenteils den Generälen White und Jobe anvertraut wurde, deren Partnerschaft Luftwaffenoffiziere den Spitznamen „Dale and Frag Show“ gaben (General Jobes Rufname als Pilot ist Frag).

Das Pentagon hat über seine Forschungsabteilungen wie DARPA und das Air Force Research Laboratory bereits mehrere Jahre damit verbracht, Prototypen wie die Valkyrie und die Software, mit der sie läuft, zu bauen. Aber das Experiment entwickelt sich nun zu einem sogenannten 'Program of Record', das heißt, wenn der Kongress zustimmt, werden beträchtliche Steuergelder für den Kauf der Fahrzeuge bereitgestellt: insgesamt 5,8 Milliarden US-Dollar in den nächsten fünf Jahren, so der Plan der Air Force.

Im Gegensatz zu F-35-Kampfflugzeugen, die von Lockheed Martin und seinen Subunternehmern als Paket geliefert werden, plant die Luftwaffe, das Flugzeug und die Software in separate Einkäufe aufzuteilen.

Kratos, der Erbauer der Valkyrie, bereitet sich bereits darauf vor, bei jedem künftigen Auftrag zu mitzubieten, ebenso wie andere große Unternehmen wie General Atomics, das seit Jahren Angriffsdrohnen für den Einsatz im Irak und in Afghanistan baut, und Boeing, das über ein eigenes experimentelles autonomes Flugzeug verfügt, dem Prototyp des Kampfflugzeugs MQ-28 Ghost Bat.

Eine separate Gruppe von Software-First-Unternehmen – Technologie-Start-ups wie Shield AI und Anduril, die durch Risikokapital in Höhe von Hunderten Millionen Dollar finanziert werden – wetteifern um das Recht, dem Pentagon die Algorithmen der künstlichen Intelligenz zu verkaufen, die für Missionsentscheidungen zuständig sind.

Die Liste der Hürden, die es zu überwinden gilt, ist lang.

Das Pentagon hat eine miserable Bilanz bei der Entwicklung fortschrittlicher Software und dem Versuch, ein eigenes Programm für künstliche Intelligenz zu starten. Im Laufe der Jahre hat es verschiedene mit Akronymen übersäte Programmbüros durchlaufen, die gegründet und dann geschlossen wurden, ohne dass es wenig zu zeigen gab.

Unter den Führungskräften im Pentagon kommt es zu ständigen Wechseln, was die Bemühungen erschwert, im Zeitplan voranzukommen. General Jobe wurde bereits eine neue Rolle zugewiesen, ebenso wie in Kürze General White.

Das Pentagon muss auch die eiserne Kontrolle, die die großen Verteidigungsunternehmen über den Fluss der Militärausgaben ausüben, durchbrechen. Wie aus der Struktur des Valkyrie-Programms hervorgeht, möchte das Militär mehr tun, um das Fachwissen einer neuen Generation von Softwareunternehmen zu nutzen, um wichtige Teile des Pakets zu liefern und mehr Wettbewerb, unternehmerisches Tempo und Kreativität in das zu bringen, was seit langem ein risikoscheues und langsames System darstellt.

Die wichtigste Aufgabe lag, zumindest bis vor Kurzem, bei General Jobe, der sich vor zwei Jahrzehnten erstmals in der Luftwaffe einen Namen machte, als er dabei half, eine Bombenangriffsstrategie zu entwickeln, um tief vergrabene Bunker im Irak zu sprengen, in denen sich wichtige militärische Kommunikationsschaltstellen befanden.

Er wurde gebeten, wichtige Entscheidungen zu treffen, um den Rahmen für den Bau der Roboterflugzeuge mit KI-Antrieb festzulegen. Während eines Pentagon-Interviews und bei anderen jüngsten Veranstaltungen sagten die Generäle Jobe und White, dass es ein klares Gebot sei, dass die Menschen die letztendlichen Entscheidungsträger bleiben – und nicht die Roboterdrohnen, bekannt als C.C.A.s, das Akronym für kollaborative Kampfflugzeuge.

„Ich werde diesen Roboter nicht rausgehen lassen und einfach anfangen, auf Dinge zu schießen“, sagte General Jobe während eines Briefings mit Pentagon-Reportern Ende letzten Jahres.

Er fügte hinzu, dass immer ein Mensch entscheiden würde, wann und wie ein KI-fähiges Flugzeug mit einem Feind in Kontakt treten solle, und dass Entwickler eine Firewall um bestimmte KI-Funktionen errichten, um die selbst ausgelösten Handlungen der Geräte einzuschränken.

„Betrachten Sie es einfach als eine Erweiterung Ihres Waffenschachts, wenn Sie in einer F-22, F-35 oder was auch immer sitzen“, sagte er.

Im Jahr 1947 war Chuck Yeager, damals ein junger Testpilot aus Myra, West Virginia, der erste Mensch, der schneller als die Schallgeschwindigkeit flog.

76 Jahre später ist ein weiterer Testpilot aus West Virginia einer der ersten Air-Force-Piloten, der neben einer autonomen, KI-gestützten Kampfdrohne flog.

Groß und schlaksig, mit einem leichten Appalachen-Akzent, flog Major Elder letzten Monat seine F-15 Strike Eagle in einer Entfernung von 1.000 Fuß zur experimentellen XQ-58A Valkyrie – und beobachtete sie genau, wie ein Elternteil, der neben einem Kind herläuft, das das Fahrradfahren lernt. Die Drohne flog selbstständig und erreichte bestimmte ihr zugewiesene Geschwindigkeiten und Höhen.

Die grundlegenden Funktionstests der Drohne waren nur der Auftakt zur eigentlichen Show, bei der die Valkyrie über den Einsatz fortschrittlicher Autopilot-Tools hinausgeht und beginnt, die Kriegsfähigkeiten ihrer künstlichen Intelligenz zu testen. In einem für später in diesem Jahr geplanten Test soll die Kampfdrohne über dem Golf von Mexiko ein simuliertes feindliches Ziel verfolgen und dann töten, und dabei eine eigene Strategie für die Mission entwickeln.

In der aktuellen Phase besteht das Ziel darin, die Flugkapazität der Valkyrie und die KI-Softwarezu testen. Das Flugzeug trägt also keine Waffen. Der geplante Luftkampf wird mit einem „konstruierten“ Feind stattfinden, obwohl der K.I.-Agent an Bord der Valkyrie glauben wird, dass er echt ist.

Major Elder hatte in diesem frühen Entwicklungsstadium keine Möglichkeit, direkt mit der autonomen Drohne zu kommunizieren, daher musste er sehr genau beobachten, wie sie zu ihrer Mission aufbrach.

„Sie will töten und überleben“, sagte Major Elder über das Training, das die Drohne erhalten hat.

In Eglin, einem der größten Luftwaffenstützpunkte der Welt, wurde ein ungewöhnliches Team aus Luftwaffenoffizieren und Zivilisten zusammengestellt. Dazu gehört auch Kapitänin Rachel Price aus Glendale, Arizona, die gerade ihren Doktortitel am Massachusetts Institute of Technology über Computer Deep Learning abschließt, sowie Maj. Trent McMullen aus Marietta, Georgia, der einen Master-Abschluss in maschinellem Lernen von der Stanford University hat.

Major Elder achtet unter anderem auf etwaige Diskrepanzen zwischen Simulationen, die der Computer vor dem Flug durchführt, und den Aktionen der Drohne, wenn sie sich tatsächlich in der Luft befindet – ein „Sim-to-Real“-Problem nennen sie es – oder noch besorgniserregender: Jedes Anzeichen von auffälligem Verhalten, bei dem die Roboterdrohne auf potenziell schädliche Weise handelt.

Während Testflügen können Major Elder oder der Teammanager im Kontrollturm der Eglin Air Force Base die KI ausschalten, während der grundlegende Autopilot der Valkyrie am Laufen bleibt. Das gilt auch für Kapitän Abraham Eaton aus Gorham, Maine, der bei dem Projekt als Flugtestingenieur fungiert und die Aufgabe hat, bei der Bewertung der Leistung der Drohne mitzuhelfen.

„Wie bewertet man einen Agenten der künstlichen Intelligenz?“ fragte er rhetorisch. „Bewerten Sie es auf einer menschlichen Skala? Wahrscheinlich nicht, oder?“

Echte Gegner werden wahrscheinlich versuchen, die künstliche Intelligenz zu täuschen, indem sie beispielsweise eine virtuelle Tarnung für feindliche Flugzeuge oder Ziele erstellen, um den Roboter glauben zu lassen, dass er etwas anderes sieht.

Die erste Version des A.I. Software ist „deterministischer“, was bedeutet, dass sie weitgehend den Skripten folgt, mit denen sie trainiert wurde, basierend auf Computersimulationen, die die Luftwaffe beim Aufbau des Systems millionenfach ausgeführt hat. Schließlich muss die K.I. Software in der Lage sein, die Welt um sich herum wahrzunehmen – und lernen, Tricks zu verstehen und zu überwinden - Fähigkeiten, die eine umfangreiche Datenerfassung erfordern, um die Algorithmen zu trainieren. Die Software muss stark vor Hackerangriffen durch einen Feind geschützt werden.

Der schwierigste Teil dieser Aufgabe, sagte Major Elder und andere Piloten, ist der entscheidende Vertrauensaufbau, der ein so zentrales Element der Bindung zwischen Pilot und Wingman ist – ihr Leben hängt voneinander ab und davon, wie jeder von ihnen reagiert. Auch im Pentagon gibt es Anlass zur Sorge.

„Ich muss wissen, dass diese C.C.A.s tun werden, was ich von ihnen erwarte, denn wenn sie es nicht tun, könnte es schlecht für mich enden“, sagte General White.

In ersten Tests haben die autonomen Drohnen bereits gezeigt, dass sie sich auf ungewöhnliche Weise verhalten, wobei die Valkyrie in einem Fall eine Reihe von Rollen ausführte. Zuerst dachte Major Elder, dass etwas nicht stimmte, aber es stellte sich heraus, dass die Software festgestellt hatte, dass ihre Infrarotsensoren ein klareres Bild liefern könnten, wenn sie kontinuierliche Drehungen durchführte. Für einen menschlichen Piloten wäre das Manöver wie eine Achterbahnfahrt gewesen, bei der sich der Magen umdrehen würde, aber das Team kam später zu dem Schluss, dass die Drohne bei der Mission ein besseres Ergebnis erzielt hatte.

Air-Force-Piloten haben Erfahrung damit, Computerautomatisierungen zu vertrauen – etwa den Kollisionsvermeidungssystemen, die eingreifen, wenn ein Kampfjet Richtung Boden stürzt oder dabei ist, mit einem anderen Flugzeug zu kollidieren – zwei der häufigsten Todesursachen unter Piloten.

Die Piloten zögerten zunächst, mit aktiviertem System in die Luft zu gehen, da es Computern ermöglichen würde, die Kontrolle über die Flugzeuge zu übernehmen, sagten mehrere Piloten in Interviews. Als sich die Beweise dafür verdichteten, dass das System Leben rettete, fand es breite Zustimmung. Aber zu lernen, Roboter-Kampfdrohnen zu vertrauen, wird eine noch größere Hürde sein, räumten hochrangige Beamte der Luftwaffe ein.

Beamte der Luftwaffe verwendeten das Wort „Vertrauen“ Dutzende Male in einer Reihe von Interviews über die Herausforderungen, denen sie bei der Schaffung von Akzeptanz bei Piloten gegenüberstehen. Sie haben bereits damit begonnen, die Prototypen der Roboterdrohnen mit Testpiloten aus der Umgebung zu fliegen, damit sie diesen Prozess in Gang bringen können.

Die Luftwaffe hat außerdem ein zweites Testprogramm namens Project Venom gestartet, bei dem Piloten in sechs F-16-Kampfflugzeuge eingesetzt werden, die mit Software für künstliche Intelligenz ausgestattet sind, die wichtige Missionsentscheidungen treffen wird.

Das Ziel, sagten Beamte des Pentagons, sei eine unberechenbarere und tödlichere Luftwaffe, die eine größere Abschreckung für alle Schritte Chinas und einen weniger tödlichen Kampf, zumindest für die US-Luftwaffe, schaffen würde.

Beamte schätzen, dass es fünf bis zehn Jahre dauern könnte, ein funktionierendes KI-basiertes System für den Luftkampf zu entwickeln. Die Kommandeure der Luftwaffe drängen darauf, die Bemühungen zu beschleunigen – sind sich jedoch bewusst, dass Geschwindigkeit nicht das einzige Ziel sein kann.

„Wir werden nicht sofort dort sein, aber wir werden dort ankommen“, sagte General Jobe. „Es ist fortschrittlich und wird jeden Tag besser, wenn man diese Algorithmen weiter trainiert.“

Quelle:

https://www.nytimes.com/2023/08/27/us/politics/ai-air-force.html