DARPA geht auf KI-Gefahren ein: 'Es ist nicht eines dieser Dinge, die mich nachts wach halten'

DARPA-Direktor Dr. Steven Walker über den Einsatz von Technologie zum Schutz der nationalen Sicherheit (Priya Mathew/Washington Post Live)

Künstliche Intelligenz bleibt berechenbar und muss noch viel ausgefeilter werden, bevor sie eine ernsthafte Bedrohung für den Menschen darstellt, so der Leiter der Defense Advanced Research Agency.

Während einer Frage-und-Antwort-Runde mit dem Kolumnisten der Washington Post, David Ignatius, sagte DARPA-Direktor Steven H. Walker am Donnerstag, dass KI immer noch „eine sehr fragile Fähigkeit“ sei, eine, die nur wenig Fähigkeit hat, unabhängig zu handeln.

WpHolen Sie sich die volle Erfahrung.Wählen Sie Ihren PlanPfeilRechts

„Zumindest im Verteidigungsministerium sehen wir heute keine Maschinen, die etwas von selbst tun“, sagte er und stellte fest, dass die Forscher der Behörden sich intensiv auf den Aufbau von „Mensch-Maschine“-Partnerschaften konzentrieren. „Ich denke, wir sind weit von einer verallgemeinerten KI entfernt, selbst in der dritten Welle unseres Strebens.“

Die Geschichte geht unter der Werbung weiter

'Es ist nicht eines dieser Dinge, die mich nachts wach halten', fügte er hinzu und verwies auf die Gefahren, die von der KI ausgehen.

Elon Musk: Um nicht wie Affen zu werden, müssen Menschen mit Maschinen verschmelzen



Walkers Kommentare kommen vor dem Hintergrund erbitterter Kontroversen über den Einsatz von KI durch das Militär. Im Juni unterzeichneten Tausende von Google-Mitarbeitern eine Petition, in der sie gegen die Rolle des Unternehmens in einem Projekt des Verteidigungsministeriums mit maschineller Intelligenz protestierten.

Google zog sich schließlich aus dem als Project Maven bekannten Programm zurück, einer Initiative, die KI verwendet, um automatisch Autos, Gebäude und andere Objekte in Videos zu markieren, die von Drohnen aufgenommen wurden, die über Konfliktzonen fliegen. Google-Mitarbeiter beschuldigten das Militär, KI zu nutzen, um effizienter zu töten, aber militärische Führer behaupteten, die Technologie würde verwendet, um Militärpersonal von unnötigen Gefahren fernzuhalten und letztendlich Leben zu retten.

„Ohne Zweifel hat dies im DOD für viel Betroffenheit gesorgt“, sagte Robert O. Work, der ehemalige stellvertretende Verteidigungsminister, der letztes Jahr beim Start von Project Maven half, gegenüber Tony Romm und Drew Harwell von der Washington Post im Oktober. „Google hat sich ein großes moralisches Risiko geschaffen, indem es gesagt hat, dass es keine seiner KI-Technologien verwenden möchte, um Menschenleben zu nehmen. Aber sie sagten nichts über die Leben, die gerettet werden könnten.“

Die Werbegeschichte wird unter der Werbung fortgesetzt

Einige Monate nach dem Ausstieg von Google aus Project Maven, DARPA kündigte eine mehrjährige Investition von mehr als 2 Milliarden US-Dollar an in Programmen, die sich auf die Entwicklung von KI konzentrieren.

Zur Bestürzung über die KI tragen auch namhafte Technologen wie Elon Musk und Bill Gates bei, die – zusammen mit dem britischen Erfinder Clive Sinclair und dem verstorbenen theoretischen Physiker Stephen Hawking – argumentiert haben, dass die Menschheit bei ihrer scheinbar blinden Verfolgung der KI gefährliches Terrain betritt .

Musk hat KI mit „einem unsterblichen Diktator“ und „dem Teufel“ verglichen, und Hawking sagte, sie könnte „das Ende der Menschheit bedeuten“.

Im futuristischen Restaurant, wo ein Roboter den Barkeeper ersetzt hat

In seinen Bemerkungen am Donnerstag schlug Walker einen beruhigenden Ton an und argumentierte, dass DARPA-Forscher festgestellt haben, dass ihre Maschinen „ziemlich schlecht“ funktionieren, wenn sie angewiesen werden, flexibel zu denken und außerhalb der Informationen aus großen Datensätzen zu denken, mit denen sie trainiert wurden.

Die Werbegeschichte wird unter der Werbung fortgesetzt

Das Ziel, sagte er, sei nicht nur, Maschinen die Fähigkeit zu geben, zu verstehen, was sie in ihrer Umgebung sehen, sondern ihnen die Fähigkeit zu geben, sich an diese Umgebung anzupassen, wie es ein Mensch tun könnte.

Die KI kann beispielsweise das Bild einer Katze erkennen, die auf einem Koffer sitzt, aber die Maschine kann immer noch nicht verstehen, dass die Katze in den Koffer gelegt werden könnte – und dass Sie so etwas wahrscheinlich nicht tun möchten . Der Mensch hingegen versteht beide Szenarien instinktiv.

„Wie man Maschinen so einen gesunden Menschenverstand gibt, ist der nächste Weg, den DARPA vorantreibt“, sagte Walker. „Es wird entscheidend sein, wenn wir wirklich wollen, dass Maschinen Partner der Menschen sind und nicht nur Werkzeuge.“

Kommentar Kommentare GiftOutline Geschenkartikel Loading...