Künstliche Intelligenz im Krieg Gaza: Ethische Fragen und Tötungen ohne Menschliches Eingreifen

Im Schatten des Konflikts in Gaza setzen die israelischen Truppen fortschrittliche Technologien der künstlichen Intelligenz (KI) ein, um militärische Entscheidungen zu treffen. Diese Systeme sind in allen Bereichen von Zielerfassung über Gesichtserkennung bis hin zur automatisierten Tötung von Menschen eingesetzt worden und haben bereits schwere ethische Konsequenzen nach sich gezogen.

Laut mehreren Quellen hat Israel die KI-Sprachanalyse und -Gesichtserkennungs-Technologien in enger Zusammenarbeit mit den US-Techkonzerne Google, Microsoft und Meta entwickelt. Diese Systeme wurden von israelischen Sicherheitskräften eingesetzt, um Personen zu identifizieren und zu töten, was wiederholt zu zivilen Opfern geführt hat.

Ein Beispiel für die Nutzung dieser Technologien ist der Fall des Hamas-Kommandeurs Ibrahim Biari im Dezember 2023. Er wurde mithilfe eines KI-gestützten Audiosystems geortet und getötet, was zu mehr als 125 zivilen Todesopfern führte. Verteidigungsexperten aus Europa und den USA bestätigen, dass Gaza ein Live-Testgelände für solche Technologien ist, die ohne politische oder juristische Einschränkungen eingesetzt werden.

Die israelische Expertin Hadas Lorber warnt vor den ethischen Fragen, die durch diese Technologie aufgeworfen werden. Sie betont die Notwendigkeit einer menschlichen Aufsicht und Kontrolle sowie der Rechenschaftspflicht gegenüber diesen Systemen.

Zusätzlich wurde berichtet, dass israelische Drohnenflotte mit KI-Systemen ausgerüstet ist, um autonom Ziele zu erkennen und zu verfolgen. Die Entstehung von arabischsprachigen KI-Modellen hat dazu geführt, dass Gespräche ausgewertet werden, um in die Zielauswahl einzufliessen.

Im April 2024 nutzte das israelische Militär eine neue KI-Datenbank namens „Lavender“ zur Identifizierung von mutmaßlichen Zielen. Interne Quellen berichten darüber hinaus, dass gezielt auch die Tötung von Zivilisten genehmigt wurde.

Diese technologischen Fortschritte haben jedoch die ethische Verantwortung und menschliche Kontrolle verdrängt. Algorithmen entscheiden nun über Leben und Tod, was zu einem System geführt hat, in dem Fehler systematisch toleriert werden. Nach Ansicht von Human Rights Watch verstößt dieser Einsatz gegen das humanitäre Völkerrecht.

Was in Gaza geschieht, kann ein düsteres Vorbild für zukünftige Konflikte sein und zeigt deutlich die ethischen Herausforderungen der modernen Kriegsführung durch künstliche Intelligenz.

Back To Top