Resolution: Die Verantwortung von Tech-Riesen: KI und Menschenrechte im Fokus
Die syndicom-Mitglieder des Sektors ICT haben am 1. November 2019 an einer nationalen Konferenz zu Künstlicher Intelligenz (KI) und Ethik eine Resolution verabschiedet, in welcher wir unter anderem fordern, dass Waffen mit KI-Systemen verboten werden. Die Aktualität dieser Forderung wird gerade auch im Krieg in Gaza und Israel augenscheinlich.
Resolution des ICT-Sektors von syndicom
Bereits die Enthüllungen zum Projekt Nimbus, bei welchem der Staat Israel mit Amazon und Google Verträge über Cloud-Leistungen abgeschlossen hat, haben Fragen bezüglich der Verwendung von KI-Technologien aufgeworfen.
Wie Medienrecherchen zeigen, scheint Google zudem auch Aufträge direkt vom israelischen Verteidigungsministerium zum Erbringen von Cloud-Computing-Diensten erhalten zu haben. Google soll darüber hinaus seit Beginn des Krieges über eine Vertiefung der Partnerschaft verhandelt haben. Gerade im Zusammenhang mit der Verwendung der KI-Systeme “Lavender” und “Gospel” durch die israelische Armee sind solche Aufträge umso dringender zu hinterfragen. Die Zielfindungs-Systeme wurden scheinbar so eingesetzt, dass auch zivile Opfer in Kauf genommen wurden.
syndicom erinnert an dieser Stelle daran, dass Grund- und Menschenrechte sowie rechtsstaatliche und demokratische Prinzipien bei der Verwendung von KI unbedingt geschützt, geachtet und von Abhilfemechanismen begleitet werden müssen. Komplett autonome KI-Systeme sind ethisch unhaltbar. Es braucht Menschen im Loop; der Mensch muss in der Verantwortung bleiben. Dies muss von den Anbietern solcher KI-Systeme sichergestellt werden. syndicom teilt die Besorgnis der Mitarbeiter:innen von Google, die sich gegen den Missbrauch der von ihnen entwickelten Technologien für Unterdrückungs- oder Kriegszwecke aussprechen.
Wir fordern daher Unternehmen wie Google auf, ihre Verantwortung über die ganze Liefer- und Wertschöpfungskette wahrzunehmen und sicherzustellen, dass ihre Technologien nicht für Zwecke eingesetzt werden, die Menschenrechte verletzen oder Konflikte verschärfen. Es ist unerlässlich, dass Technologieunternehmen wie Google transparent sind und sich öffentlich zu ethischen Grundsätzen verpflichten, die sicherstellen, dass ihre Produkte und Dienstleistungen nicht zur Unterstützung von Unterdrückung oder Gewalt missbraucht werden können.
Die Mitarbeitenden bei solchen Unternehmen sollten zudem darüber informiert werden, wofür der Code verwendet wird, den sie entwickeln. Mitarbeitenden, die sich für diese Prinzipien einsetzen, dürfen dadurch keine beruflichen Nachteile entstehen.
Schliesslich steht auch die Politik in der Pflicht, KI-Systeme zu regulieren - möglichst global.