Die Nachricht kam letzte Woche: Auf Druck einiger seiner Mitarbeiter hatte Google beschlossen, das Projekt Maven, sein Projekt zur Ausstattung des Pentagons mit hochentwickelten Gesichtserkennungstechnologien, aufzugeben. Auch Sundar Pichai, Geschäftsführer von Google, nutzte die Gelegenheit, die neuen ethischen Regeln online zu stellen. Dieses 8000-Wörter-Dokument beschreibt die Situationen, in denen das Unternehmen den Einsatz künstlicher Intelligenz einschränken will. Pichai hat die Bedeutung dieser Mini-Charta unterstrichen und betont, dass es sich um eine Reihe von „konkreten Standards handelt, die unsere Forschung und Produktentwicklung aktiv steuern und unsere Geschäftsentscheidungen beeinflussen werden“. Als wahre Verkörperung von Googles Gründungsmotto « Don’t be evil », bekräftigt diese Charta, dass das Unternehmen keine Technologien kaufen wird, die Schaden anrichten können oder das Potenzial dazu haben und ausdrücklich keine künstliche Intelligenz für Waffen einsetzen wird. KI sollte sozial vorteilhaft sein, unfaire Vorurteile vermeiden oder verstärken und auf Sicherheit geprüft werden; sie sollte auch private Daten schützen, hohe Standards wissenschaftlicher Exzellenz aufrechterhalten und den Menschen gegenüber rechenschaftspflichtig sein. Ausgehend davon bekräftigt Google seine Absicht, jegliche technologische Nutzung von AI zu beenden, wenn es feststellt, dass es gegen seine Prinzipien verstößt. Nachdem Boston Dynamics, ein Unternehmen, das mit seinen Videos von „Robotern auf Beinen“, die im Wald springen und rennen, Panik im Netz verbreitet hat, scheint es, dass dies die zweite konkrete Maßnahme von Google ist, die darauf abzielt, den technologischen Fortschritt im Zusammenhang mit der Entwicklung künstlicher Intelligenz zu begrenzen. Mit diesem Schritt wandelt der kalifornische Riese Worte in Taten um, da seine Gründer vor einiger Zeit neben anderen Schlüsselfiguren wie Bill Gates, Elon Musk oder dem verstorbenen Stephen Hawkins Alarm geschlagen haben.
Google ist sicherlich nicht der einzige, der Fragen zur technologischen Entwicklung von KI aufwirft. Eye in the Sky ist zu einer Referenz geworden. Forscher der Universität Cambridge haben einen Algorithmus entwickelt, der Bewegung als „Angriff“ oder „Gewalt“ in Echtzeit identifizieren kann. Die praktische Umsetzung beinhaltet die Montage einer Kamera auf einem DSS (Drone Surveillance System) zur Überwachung von Massenbewegungen. Die Forscher dieses Projekts entwickelten sie für Drohnen, die von den Strafverfolgungsbehörden zur Überwachung eingesetzt werden. Sie erklären, wie ein SHDL (ScatterNet Hybrid Deep Learning) System es der Drohne ermöglicht, beobachtete Situationen mit anderen zu vergleichen um so Gewaltszenen zu erkennen. Es kann verschiedene Bewegungen wie Erwürgen, Schlagen, Treten, Schießen oder Stechen unterscheiden. Die Genauigkeit der neuesten Version dieses Systems beträgt 89%. Diese nimmt im Verhältnis zur Anzahl der beobachteten Personen ab (je höher die Anzahl, desto ungenauer sind die Beobachtungen). Bisher wurden die Experimente (mit mindestens zwei und maximal zehn Personen) nur an Szenarien von Schauspielern durchgeführt. Auf Fragen von TheRegister antwortet Amarjot Singh, einer der Co-Autoren der Studie, dass die aufgenommenen Bilder nicht für andere Zwecke als die der Software in der Cloud gespeichert werden. Ein weiteres Problem sind „falsch-positive“ Fehlinterpretationen. Übereifrige oder falsch programmierte Software, könnte z.B. versehentlich eine Warnung über bestimmte Sportereignisse aussenden…. Eine andere – vielleicht viel schwerwiegendere – Möglichkeit wäre, dass dieses Überwachungssystem in die Hände einer schlecht gemeinten Regierung fallen könnte, eine Möglichkeit, die von Singh anerkannt wird, der darauf hinweist: „Das System [könnte potentiell] benutzt werden, um Personen zu identifizieren und zu verfolgen, von denen die Regierung denkt, dass sie gewalttätig sind, aber in Wirklichkeit nicht sind….] Der Designer des [endgültigen] Systems entscheidet, was ‚gewalttätig‘ ist, was mir ein Anliegen ist.“ Er räumte ein, dass es durchaus möglich ist, ein solches System zu missbrauchen, stellte jedoch fest, dass die Programmierung eine große Menge an Daten und fortgeschrittene Programmierkenntnisse erfordert, und hoffte, dass eine Überwachung eingeführt würde, um den Missbrauch dieser Technologie zu verhindern. Er plant, das Projekt bald bei zwei Musikfestivals zu testen und auch die Landesgrenzen Indiens zu überwachen. Wenn die Ergebnisse schlüssig sind, hofft er, sein Überwachungsgerät zu vermarkten.
Diese beiden Beispiele zeigen, wie sehr die Zukunft der Künstlichen Intelligenz mit ethischen Problemen behaftet ist. Auf der einen Seite haben wir einen Weltkonzern, der eine Charta herausgibt und beschließt, seine „Supermächte“ zu bremsen, indem er die Entwicklung der KI aussetzt und entscheidet, dass ein Staat nicht in der Lage sein sollte, diese technologische Effizienz zu nutzen. Auf der anderen Seite haben wir studentische Forscher, die bereit sind, alles zu tun, um ihre Technologie bis an die Grenzen zu bringen und auf den Markt zu bringen, während sie sich bewusst sind, dass sie in die Hände eines skrupellosen Staates oder sogar von Einzelpersonen fallen könnte.
Es ist beruhigend festzustellen, dass es die Unternehmen und die Forscher selbst sind, die sich dieser Probleme bewusst sind und die die Probleme aufwerfen und Vorsichtsmaßnahmen ergreifen. Es ist kein großer Sprung, die aktuelle Situation mit den Anfängen der Gentechnik in den 70er Jahren zu vergleichen, als sich die Forscher auf der Asilomar-Konferenz trafen und über die möglichen Folgen ihres Handelns nachzudenken begannen, falls sich genetisch veränderte Bakterien jemals außerhalb des Labors ausbreiten sollten. Es scheint, dass bei den Hauptakteuren, die KI-Anwendungen entwickeln wollen, ein ähnliches Bewusstsein entsteht. Vor einigen Wochen erwähnten wir in einem Leitartikel den Villani-Bericht, benannt nach dem französischen Mathematiker und Politiker, der die Zukunft der KI in Europa untersuchte und der Ansicht war, dass Ethik eine Voraussetzung für jede weitere Entwicklung der KI auf dem „alten Kontinent“ sein sollte. Damals diskutierten wir die Falle, in die diese Art von Ermahnung fallen kann. Zwar mag uns die Tatsache beruhigen, dass sich wichtige Akteure im Bereich der künstlichen Intelligenz selbst ethische Fragen über ihre eigenen Anwendungen und die möglichen Folgen ihrer Entwicklung stellen, doch könnte es andererseits kontraproduktiv sein, diese Fragen zuerst zu stellen, insbesondere als abstraktes Prinzip und wenn wir wissen, dass sich der globale Wettbewerb verschärft.[1] Aus unseren beiden Beispielen geht klar hervor, dass der „Missbrauch“ von KI ebenso wahrscheinlich das Ergebnis von Staaten wie von Einzelpersonen ist, und wir wissen auch, dass es eine Phantasie ist, zu glauben, man könne der technologischen Entwicklung Einhalt gebieten. Man braucht sich nur anzusehen, wie schnell Länder wie China Gesichtserkennungstechnologien einführen, um sich davon zu überzeugen. Darüber hinaus scheint die Zahl der „positiven Anwendungen“ der KI die schädlichen Anwendungen bei weitem zu überwiegen, und wenn man sie aus der Sicht der „Risiko-Nutzen-Analyse“ betrachtet, scheint es klar zu sein, dass wir uns nicht die Nase abschneiden können, um uns dieses Fortschritts zu berauben (siehe unsere Bewertung der Präzisionslandwirtschaft).
Vergewissern wir uns also, dass das Bewusstsein für die „potenziellen Risiken“ der KI bei denjenigen, die täglich damit arbeiten, an erster Stelle steht. Wir werden darauf wetten müssen, dass die kollektive Intelligenz, die sich aus dem Treffen aller Beteiligten ergibt, die beste Garantie für die vorteilhafte Nutzung der Supermacht der KI ist und dass aus der Konfrontation der verschiedenen beteiligten Machtblöcke ein Gleichgewicht entsteht.
[1] Auf der #AIForHumanity-Konferenz enthüllte Antoine Petit, der Leiter des CNRS (The French National Centere for Scientific Research – Französisches Nationales Zentrum für wissenschaftliche Forschung), den Bericht der Villani-Kommission und warnte davor: „Wir … sollten uns nicht auf ethische Fragen spezialisieren, während gleichzeitig die USA und China Geschäfte machen und Arbeitsplätze schaffen. Lasst uns nicht den Anschein erwecken, dass dies eine Welt mit homogenen ethischen Werten ist!“ Der Ökonom Philippe Silberzahn sagt dazu: “ Wenn man die KI in den Dienst der Ethik stellt, dann weist der Bericht zwei Fehler auf: Einerseits gibt er sich selbst keine Chance, über die Ethik der KI nachzudenken, weil wir in einem Vakuum denken werden – wir können nur denken, indem wir es tun, und andererseits verurteilt er Frankreich, nur von der Seitenlinie zuzuschauen „.
This post is also available in: EN (EN)FR (FR)