Erst die Forschung, dann die Moral?
Auf der diesjährigen DLD Konferenz in München hat Sheryl Sandberg, COO von Facebook, verkündet, dass der Internetkonzern ein neu gegründetes Forschungsinstitut an der TU München mit 6,5 Millionen Euro über 5 Jahre hinweg finanziert und unterstützt. Das Institute for Ethics in Artificial Intelligence wird sich mit der Frage nach ethischen Grundsätzen und Richtlinien in der Entwicklung von Künstlicher Intelligenz (KI) beschäftigen.
Wer macht den Anfang?
Unbestritten ist die Frage nach ethischen Rahmenbedingungen in der KI-Forschung relevant, sinnvoll und nötig. Mythen und Ängste, dass humanoide Roboter die menschliche Intelligenz übersteigen und die Weltherrschaft an sich reißen könnten, verwirren und verfälschen die Diskussionen rund um das Thema KI und verunsichern Verbraucher. Szenarien aus Filmen wie Ex Machina oder I, Robot, in denen intelligente Roboter eigenständige Persönlichkeiten entwickeln und autonom in ihren Handlungen werden, sind jedoch gar nicht vorderstes Problem und Gegenstand der Wissenschaft.
Im Kern der aktuellen KI-Forschung geht es u. a. um Anwendungen in den Bereichen der Mustererkennung und Interpretation von Datensätzen, Robotik in Industrie und Haushalt oder autonomes Fahren und deren Risiken. All dies sind Fälle, die schon in unserem Alltag angekommen sind – manchmal präsent wie bei Tesla, manchmal verborgen wie bei Facebook-Algorithmen. Daher ist es allerhöchste Zeit, dass spezielle Ethikzentren eingerichtet werden und in die Forschung und Entwicklung von moralischen Grundsätzen investiert wird – gerade in Deutschland, dem Land der Idealisten. Da ist es fast schon ironisch, dass ausgerechnet Facebook eine Vorreiterrolle einnimmt. Ironisch ja – aber nicht falsch. Denn gerade Unternehmen sollen in ihrer Forschung mehr moralische Verantwortung übernehmen.
Unternehmen vor!
In unserer aktuellen Studie Brands in Motion haben wir festgestellt, dass Verbraucher explizit Verantwortung und einen moralischen Umgang mit neuen Technologien von Marken fordern. 93 Prozent der befragten Konsumenten in Deutschland fordern von Unternehmen ethische Verantwortung in der Anwendung von Technologie. Facebook, als ein Unternehmen, das oft in der Kritik steht undurchsichtige Algorithmen anzuwenden oder Daten weiterzureichen, steht hier besonders unter Druck, sich zu rechtfertigen und Lösungen anzubieten. Daher ist die Finanzierung in das Institute for Ethics in Artificial Intelligence ein nachvollziehbarer Schritt. Zudem gibt es schon zahlreiche Forschungseinrichtungen zu verschiedensten Wissenschaften, die von Unternehmen finanziert werden. Die Kritik, die gerade in Deutschland von einigen Seiten aufkommt, die Forschung solle unabhängig von Konzernen erfolgen, geht also am Ziel vorbei. Denn wer, wenn nicht die Unternehmen, die für die Entwicklung von KI-Technologien verantwortlich sind, sollte sich vorrangig um ethische Richtlinien zu eben diesen bemühen?
Eine Schlussfolgerung aus der Brands in Motion Studie, die wir an dieser Stelle ziehen wollen, ist, dass wenn Verbraucher Unternehmen in der Verantwortung sehen, sie auch die Verbindung von Wissenschaft und Wirtschaft hinnehmen müssen.
Erst kommt die Forschung, dann die Moral. Diese Reihenfolge muss nicht notwendigerweise schlecht sein. Denn nur durch und in der Forschung erkennen wir Problematiken und Hindernisse, die ethische Richtlinien erfordern und begründen. Forschung ist also die Bedingung für die Erkenntnis moralischer Probleme in dem jeweiligen Forschungsgebiet und den Umgang mit diesen.
Gleichzeitig erscheint Forschung ohne Ethik verantwortungslos, z. B. wenn Genmanipulationen an Embryonen vorgenommen werden. Beide Wissenschaften – KI-Forschung und KI-Ethik – sollen also Hand in Hand gehen und gegenseitig aufeinander aufbauen, damit neue Technologien akzeptiert und umgesetzt werden. Facebook zeigt, dass es diese Verantwortung ernst nimmt und sich weiterentwickeln möchte und hoffentlich sehen auch andere Konzerne die Bedingung ethischen Handelns als notwendig für ihre Forschung – genau wie die befragten Konsumenten unserer Studie.