www.wikidata.de-de.nina.az
Die Ethik der kunstlichen Intelligenz ist ein Teilbereich der angewandten Ethik der sich mit den ethischen Fragen von KI Systemen 1 befasst Themenbereiche der KI Ethik sind 2 die Rolle von KI Systeme in der Gesellschaft und ethische Werte die ihrem Einsatz zugrunde liegen ethische Normen fur Menschen die kunstlich intelligente Systeme entwerfen herstellen testen zertifizieren und benutzen ethisches Verhalten von KI Systemen Maschinenethik Konsequenzen einer sog Singularitat aufgrund einer superintelligenten KI Die KI Ethik hat Beruhrungspunkte und Uberlappungen mit anderen Teilbereichen der angewandten Ethik Digitale Ethik Informationsethik Medienethik Virtuelle Ethik Technikethik und Roboterethik Die wachsende Bedeutung der KI Ethik ergibt sich aus der Tatsache dass Kunstliche Intelligenz KI und Robotik in naher Zukunft erhebliche Auswirkungen auf die Entwicklung der Menschheit haben werden Sie haben grundlegende Fragen daruber aufgeworfen was wir mit diesen Systemen tun sollten was die Systeme selbst tun sollten welche Risiken sie bergen und wie wir diese kontrollieren konnen Dabei sind nicht die Auswirkungen der KI Anwendung an sich Gegenstand der KI Ethik sondern die Frage wann und unter welchen Bedingungen bestimmte Auswirkungen zulassig sind 3 Die Debatte uber ethische Fragen der KI begann bereits 1960 mit einer Arbeit 4 von Norbert Wiener und der Erwiderung von Arthur L Samuel 5 Inhaltsverzeichnis 1 KI Ethik als angewandte Ethik 1 1 Prinzipienethischer Ansatz 1 2 Partikularistischer Ansatz 2 Ethische Prinzipien der kunstlichen Intelligenz 3 Debatten der KI Ethik 3 1 Autonomes Fahren 3 1 1 Ziele fur den Einsatz autonomer Fahrzeuge 3 1 2 Reaktion in Gefahrensituationen 3 1 3 Haftung und Verantwortung 3 1 4 Einschrankung der menschlichen Autonomie 3 1 5 Datenhoheit 3 1 6 Lernende Systeme 3 2 Autonome Waffensysteme 3 2 1 Ethikmodul fur autonome Waffensysteme 3 2 2 Grunde fur und gegen autonome Waffen und Fuhrungssysteme 3 2 3 Initiativen fur Verbot oder Regulierung von AWS 3 3 Maschinenethik 3 3 1 Verantwortlichkeit von Maschinen 3 4 Kunstliche moralische Agenten 3 4 1 Realisierung moralischer Agenten 3 5 Datenschutz und Uberwachung 4 Singularitat durch superintelligente KI 5 Literatur 6 Weblinks 7 EinzelnachweiseKI Ethik als angewandte Ethik BearbeitenKI Ethik ist ein junges Teilgebiet der angewandten Ethik Wie in anderen Bereichen der angewandten Ethik lassen sich auch hier zwei unterschiedliche Herangehensweisen unterscheiden einerseits ein prinzipienethischer Ansatz der allgemeine Prinzipien fur die Behandlung praktischer Probleme aufstellt und andererseits ein partikularistischer Ansatz der Moralurteile fur konkrete Handlungssituationen entwickelt Prinzipienethischer Ansatz Bearbeiten Der prinzipienethische Ansatz englisch principlism wurde in den 1970er Jahren in der Medizinethik entwickelt 6 und dient seitdem als Vorbild fur die Entwicklung anderer Bereichsethiken auch der KI Ethik 7 Bei diesem Ansatz wird ein Satz von Prinzipien bereitgestellt aus denen sich moralische Urteile fur konkrete Handlungssituationen ableiten lassen daher auch die Bezeichnung deduktivistisches Modell 8 Die Prinzipien werden dadurch begrundet dass sie eine Art Schnittmenge verschiedener normativer Konzeptionen darstellen 9 so dass sie von den unterschiedlichen normativen Theorien unabhangig und mit jeder akzeptablen Ethik vertraglich sind Sie werden daher als Prinzipien mittlerer Reichweite englisch mid level principles bezeichnet und sollen ausserdem an die moralischen Alltagsuberzeugungen englisch common morality anknupfen Es gibt hier kein oberstes Prinzip das die Anwendung der anderen Prinzipien regelt vielmehr kann es im konkreten Anwendungsfall durchaus Kollisionen zwischen den Prinzipien geben 10 Die Anwendung der Prinzipien auf einen konkreten Fall ist keine einfache Herleitung sondern sie verlangt einerseits eine genaue Beschreibung der Handlungsalternativen und andererseits eine sorgfaltige Interpretation und Gewichtung der Prinzipien Ziel ist ein Uberlegungsgleichgewicht wie es John Rawls in seiner Theorie der Gerechtigkeit eingefuhrt hat Das Uberlegungsgleichgewicht liefert kein kategorisches Urteil sondern eine sogenannte Prima facie oder Ceteris paribus Entscheidung Es wird in schwierigen Fallen nicht gelingen ein fur alle Mal richtige moralische Urteile zu fallen sie sind vielmehr immer vorlaufig defeasible 8 Partikularistischer Ansatz Bearbeiten Moralischer Partikularismus ist die Auffassung dass der moralische Status einer Handlung nicht durch moralische Prinzipien bestimmt wird sondern von der Konfiguration der moralisch relevanten Merkmale der Handlung in einem bestimmten Kontext abhangt Die Hauptmotivation fur den moralischen Partikularismus ergibt sich aus der Beobachtung dass Ausnahmen von Prinzipien ublich und Ausnahmen von Ausnahmen nicht ungewohnlich sind Moralische Grundsatze die nur fur homogene Falle geeignet sind scheinen zu grob zu sein um die feinen Nuancen in heterogenen moralischen Situationen zu berucksichtigen 11 Ob eine Eigenschaft ethisch fur oder gegen eine Handlung spricht hangt im Allgemeinen von den anderen Eigenschaften und Randbedingungen der Handlung ab 10 Beim partikularistischen Ansatz werden konkrete Handlungsoptionen sorgfaltig beschrieben und mit ahnlich gelagerten Fallbeispielen verglichen Auch der partikularistische Ansatz greift auf ethische Prinzipien und Werte zuruck 8 Andere Bezeichnungen fur diesen Ansatz sind rekonstruktives Modell 8 oder kasuistischer Ansatz Ethische Prinzipien der kunstlichen Intelligenz BearbeitenEine Analyse 12 von 84 Dokumenten mit ethischen Prinzipien und Richtlinien fur KI die uberwiegend zwischen 2016 und 2019 veroffentlicht wurden identifizierte 11 ubergreifende ethische Prinzipien Nach der Haufigkeit ihres Auftretens geordnet sind dies Transparenz Erklarbarkeit 13 Interpretierbarkeit Gerechtigkeit Fairness Gleichheit Inklusion Pluralitat Vermeidung informationeller Voreingenommenheit englisch bias Schadensvermeidung keine Diskriminierung Verantwortung und Rechenschaftspflicht Schutz der Privatsphare Datenschutz und Datensicherheit Gemeinwohl Schaffung soziookonomischer Chancen und wirtschaftlichen Wohlstands Freiheit und Autonomie Meinungsfreiheit informationelle Selbstbestimmung freie Wahl der Plattform und Technologie Schutz vor technologischen Experimenten Manipulation und Uberwachung Vertrauen vertrauenswurdige KI Forschung KI Technologie und Designprinzipien Nachhaltigkeit Wurde als Vorrecht des Menschen respektieren bewahren und starken Solidaritat Auswirkungen von KI auf den Arbeitsmarkt und den sozialen Zusammenhalt Nutzbarkeit der KI fur alle Glieder der Gesellschaft Luciano Floridi und Josh Cowls warnen davor dass die Vielzahl unterschiedlicher KI Regelwerke eher zu Verwirrung fuhrt und dass ein Markt fur Prinzipien entsteht auf dem Interessenten versucht sein konnten sich die attraktivsten herauszupicken 14 Ihre Analyse von sechs hochrangigen Initiativen fur gesellschaftlich nutzlichen Einsatz von KI 15 16 17 2 18 19 ergab eine weitgehende Ubereinstimmung der ethischen Prinzipien so dass es nach ihrer Ansicht moglich ist die KI Ethik auf die vier Prinzipien der Medizinethik und ein zusatzliches funftes Prinzip Erklarbarkeit zu grunden 14 Fursorge Benefizienz KI Technologie soll der Menschheit nutzen das Wohlergehen fordern die Menschenwurde wahren und der Erhaltung des Planeten dienen Schadensvermeidung Non Malefizienz Negative Folgen eines ubermassigen oder missbrauchlichen Einsatzes von KI mussen vermieden werden KI soll nur in einem sicheren Rahmen eingesetzt werden Autonomie Menschen mussen die volle Entscheidungsfreiheit daruber haben ob und welche Aufgaben sie an KI Systeme delegieren ihre Freiheit sich eigene Normen und Standards zu setzen muss gewahrt bleiben Gerechtigkeit Wahrung der Solidaritat Vermeidung von Ungerechtigkeit gleichberechtigter Zugang zu den Vorteilen der KI Erklarbarkeit Verstandlichkeit Die Prinzipien 1 bis 4 sind nur realisierbar wenn auch Laien nachvollziehen konnen welchen Nutzen oder Schaden KI fur die Gesellschaft hat und wer fur welche Auswirkungen verantwortlich ist Siehe auch Explainable Artificial IntelligenceDebatten der KI Ethik BearbeitenAutonomes Fahren Bearbeiten Siehe auch Autonomes Fahren Ethische Fragen Die Stufen des automatisierten Fahrens werden durch die Norm SAE J3016 definiert Ethische Probleme betreffen vor allem die Automatisierungsstufen 4 Hochautomatisierung das System kann in spezifischen Anwendungsfallen die Verkehrssituationen bewaltigen und 5 Vollautomatisierung das System beherrscht alle Verkehrssituationen Im Folgenden wird die Diskussion in Deutschland dargestellt Wesentliche Quelle dafur ist der Bericht der vom Bundesministerium fur Digitales und Verkehr eingesetzten Ethikkommission 20 Die Stanford Encyclopedia of Philosophy zahlt ihn zu den bemerkenswerten politischen Bemuhungen in diesem Bereich Die daraus resultierenden deutschen und EU Gesetze uber die Zulassung des automatisierten Fahrens sind wesentlich restriktiver als die entsprechenden Vorschriften in den USA wo das Testen beim Verbraucher von einigen Unternehmen als Strategie eingesetzt wird 21 Ziele fur den Einsatz autonomer Fahrzeuge Bearbeiten Automatisierte Verkehrssysteme sollen helfen die Sicherheit fur alle Verkehrsteilnehmer zu verbessern die Mobilitatschancen zu erhohen und weitere Vorteile wie Ressourcenschonung oder Umweltschutz zu unterstutzen Die Zulassung automatisierter Systeme ist nur dann vertretbar wenn sie im Vergleich zur menschlichen Fahrleistung zumindest eine Schadensminderung verspricht Eine Vollautomatisierung wird kritisch gesehen da sie zu einem Verlust von Fahigkeiten fuhrt und damit das autonome Handeln des Menschen einschrankt 20 Reaktion in Gefahrensituationen Bearbeiten Eine Vielzahl fachlicher und popularer Veroffentlichungen 22 23 24 behandelt die Frage wie ein autonomes Fahrzeug bei plotzlich auftretenden Gefahren reagieren soll Als besondere Schwierigkeit gilt dass diese Entscheidung bereits wahrend der Programmierung getroffen werden muss also zu einem Zeitpunkt an dem die Details der konkreten Situation noch nicht bekannt sind Als Modell fur solche Entscheidungssituationen wird haufig das moralische Dilemma des Trolley Problems in seinen verschiedenen Varianten herangezogen 25 Fachleute bezweifeln ob ein autonomes Auto jemals das Trolley Problem zu losen haben wird Denn dabei handelt es sich um Gedankenexperimente bei denen die Wahlmoglichkeiten kunstlich auf eine kleine endliche Anzahl verschiedener einmaliger Optionen beschrankt sind und der Akteur uber perfektes Wissen verfugt 21 Die Ethikkommission ist ahnlicher Auffassung Echte dilemmatische Entscheidungen wie die Entscheidung Leben gegen Leben sind nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar In Gefahrensituationen besitzt der Schutz menschlichen Lebens hochste Prioritat Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach personlichen Merkmalen Alter Geschlecht korperliche oder geistige Konstitution strikt untersagt Eine Aufrechnung von Opfern ist untersagt Eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschaden kann vertretbar sein Die an der Erzeugung von Mobilitatsrisiken Beteiligten durfen Unbeteiligte nicht opfern 20 Eine Studie uber die Akzeptanz von Entscheidungsstrategien hat gezeigt dass die Mehrheit der Befragten eine utilitaristische Strategie die auf eine Minimierung der Opferzahl setzt befurwortet und wunscht dass andere solche Fahrzeuge kaufen aber selbst ein Fahrzeug vorziehen wurde das seine Insassen um jeden Preis schutzt 26 Haftung und Verantwortung Bearbeiten Die dem Menschen vorbehaltene Verantwortung verschiebt sich bei automatisierten und vernetzten Fahrsystemen vom Autofahrer auf die Hersteller und Betreiber der technischen Systeme und die infrastrukturellen politischen und rechtlichen Entscheidungsinstanzen 20 Damit lehnt die Ethikkommission auch Uberlegungen ab die Haftung der Automobilhersteller zu begrenzen um die Entwicklung und Verbesserung autonomer Fahrzeuge zu fordern und damit die Zahl schwerer Unfalle erwartungsgemass zu senken 27 Soll der Nutzer verpflichtet werden auf die Strasse und den Verkehr zu achten und gegebenenfalls einzugreifen Nida Rumelin lehnt das ab weil es Blinde oder altere Menschen von der Benutzung autonomer Fahrzeuge ausschlosse und weil die Entwicklung bald einen Stand erreichen wird an dem der Mensch nicht mehr wirksam eingreifen kann 27 Die Ethikkommission verlangt daruber hinaus Software und Technik hochautomatisierter Fahrzeuge mussen so ausgelegt werden dass die Notwendigkeit einer abrupten Ubergabe der Kontrolle an den Fahrer Notstand praktisch ausgeschlossen ist 20 Die verschuldensunabhangigen Haftung fur das allgemeine Risiko der Fahrzeugnutzung soll auch fur autonome Fahrzeuge uber eine allgemeine Haftpflichtversicherung abgesichert werden 27 Einschrankung der menschlichen Autonomie Bearbeiten Wenn autonome Fahrzeuge zur Erhohung der Sicherheit fuhren muss dann die freiwillige Ubernahme der Steuerung durch den Menschen Overruling ausgeschlossen werden Die Ethikkommission halt es fur einen Ausdruck der Autonomie des Menschen dass er auch objektiv unvernunftige Entscheidungen wie aggressives Fahren oder uberhohte Geschwindigkeit treffen kann Es widersprache dem Leitbild des mundigen Burgers wenn der Staat ein solches Verhalten bereits im Ansatz unterbinden wollte Er konnte damit die Grundlage einer humanen freiheitlichen Gesellschaft untergraben Die Verminderung von Sicherheitsrisiken und die Begrenzung der Freiheit muss im demokratischen und grundrechtlichen Abwagungsprozess entschieden werden Es besteht keine ethische Regel die Sicherheit immer vor Freiheit setzt Auch eine verpflichtende Einfuhrung autonomer Systeme lasst sich nicht mit einer Erhohung der Sicherheit begrunden 20 Datenhoheit Bearbeiten Grundsatzlich entscheiden Fahrzeughalter oder Fahrzeugnutzer uber Weitergabe und Verwendung ihrer anfallenden Fahrzeugdaten Die Entwicklung des automatisierten Fahrens konnte aber auf eine zentrale Verkehrssteuerung mit der Erfassung aller Kraftfahrzeuge hinauslaufen die einen bedeutenden Gewinn an Verkehrssicherheit Effizienz und Komfort bringen wurde Solche zentralen Strukturen gefahrden allerdings die Freiheit des Einzelnen sich unerkannt unbeobachtet und frei zu bewegen und sie bergen das Risiko eines Missbrauchs Eine kritische Reflektion des Machbaren vor dem Hintergrund des Sinnvollen Massvollen und ethisch Verantwortbaren sollte daher stattfinden 20 Lernende Systeme Bearbeiten Lernende Systeme werden wahrend der Entwicklung trainiert sie unterliegen der Kontrolle des Herstellers und der Zulassungsbehorden Selbstlernende Systeme die sich im laufenden Fahrbetrieb verandern konnen ethisch erlaubt sein wenn sie Sicherheitsgewinne bringen und Abnahmetests unterliegen Beim gegenwartigen Stand der Technik sollten sie jedoch von sicherheitsrelevanten Funktionen entkoppelt sein 20 Autonome Waffensysteme Bearbeiten Siehe auch Militarroboter Ethikdiskussion KI wird weltweit fur verschiedene militarische Aufgaben eingesetzt um Prozesse zu optimieren und zu beschleunigen Fur die KI Ethik sind vor allem zwei Anwendungsbereiche relevant autonome Waffensysteme und der Einsatz von KI bei der Zielplanung und bei Fuhrungsprozessen 28 Definition des Internationalen Komitees vom Roten Kreuz Autonome Waffensysteme wahlen Ziele aus und wenden Gewalt an ohne dass ein Mensch eingreift Nach der anfanglichen Aktivierung oder dem Start durch eine Person leitet ein autonomes Waffensystem als Reaktion auf Informationen aus der Umgebung die es uber Sensoren erhalt und auf der Grundlage eines allgemeinen Zielprofils selbst einen Angriff ein oder lost ihn aus Dies bedeutet dass der Anwender das die konkrete n Ziel e und den genauen Zeitpunkt und oder Ort der daraus resultierenden Gewaltanwendung en nicht auswahlt oder gar kennt Der Einsatz autonomer Waffensysteme ist mit Risiken verbunden da ihre Auswirkungen nur schwer vorhersehbar und begrenzbar sind Dieser Verlust an menschlicher Kontrolle und Urteilsfahigkeit bei der Anwendung von Gewalt und Waffen wirft aus humanitarer rechtlicher und ethischer Sicht ernsthafte Bedenken auf 29 Autonome Waffensysteme AWS werden auch als Roboterwaffen oder Killerroboter bezeichnet Todliche autonome Waffensysteme englisch Lethal Autonomous Weapon Systems LAWS sind AWS die ausdrucklich fur den offensiven Einsatz bestimmt sind Je nach Einflussmoglichkeit des Menschen werden drei Autonomiestufen unterschieden 30 human in the loop HITL keine Autonomie der Mensch trifft alle Entscheidungen ggf auch per Fernbedienung human on the loop HOTL die Prozesse konnen autonom ablaufen der Mensch bleibt jedoch in der Kontrollschleife und kann jederzeit eingreifen human out of loop HOOL vollstandige Autonomie eine Kontroll und Eingriffsmoglichkeit des Menschen ist nicht mehr vorgesehen Es gibt Vorschlage militarische Entscheidungsprozesse naher an das Kampfgeschehen heranzufuhren und z B im Cockpit von Kampfflugzeugen zu installieren damit KI den Piloten bei der Entscheidungsfindung unterstutzt In Situationen mit extrem hohem Tempo z B bei der Raketenabwehr oder bei hochintensiven Einsatzen in denen der Mensch nicht mehr in der Lage ist ein fundiertes Urteil zu fallen sollte eine regelbasierte KI Anwendung die Aufgabenkontrolle ohne menschliches Eingreifen ubernehmen HOOL Modus 31 Ethikmodul fur autonome Waffensysteme Bearbeiten Grundlagen fur die ethische Bewertung von AWS sind das humanitare Volkerrecht die Lehre vom gerechten Krieg und die Rules of Engagement 32 Das bislang am weitesten durchdachte 30 Ethikmodul fur LAWS wurde von Ronald C Arkin zwischen 2006 und 2009 im Auftrag des US Verteidigungsministeriums entwickelt 33 Arkins System basiert auf vier ethischen Prinzipien die sich aus dem Kriegs und Volkerrecht ergeben Unterscheidung zwischen legitimen und illegitimen Zielen Legitim sind Kombattanten und militarische Objekte nicht legitim sind Zivilpersonen und nichtmilitarische Ziele insbesondere geschutzte Objekte wie Schulen oder Krankenhauser Militarische Notwendigkeit Der Angriff auf legitime Ziele ist nur dann erlaubt wenn dadurch ein militarischer Vorteil zu erwarten ist Vermeidung unnotiger Leiden und Kollateralschaden siehe auch Prinzip der Doppelwirkung Verhaltnismassigkeit der Aktionen Die Entwicklung eines kunstlichen moralischen Agenten fur solche komplexen Abwagungen ist allerdings noch eine ungeloste Aufgabe Selbst wenn es ein Ethikmodul gabe bliebe die Frage wie sichergestellt werden kann dass es sich tatsachlich an die Regeln halt Wer soll diese Waffen wie testen so dass sich ein Staat auf die Einhaltung des Kriegsvolkerrechts verlassen kann 34 Grunde fur und gegen autonome Waffen und Fuhrungssysteme Bearbeiten Grunde fur AWS 35 Hohe Reaktionsgeschwindigkeit und Genauigkeit Entscheidungen beruhen auf einer breiteren Informationsbasis da KI Systeme grosse Informationsmengen mit hoher Geschwindigkeit verarbeiten konnen Reduzierung der menschlichen Kosten des Krieges geringere Risiken fur Soldaten AWS haben keine Emotionen keine menschliche Schwachen und brauchen keine Pausen Strikte Einhaltung des Kriegsrechts und der Einsatzregeln gemass ihrer Programmierung wodurch Kriegsverbrechen und Graueltaten weniger wahrscheinlich werden so dass Non Kombattanten und zivile Infrastruktur besser geschutzt werden AWS konnen in Umgebungen eingesetzt werden in denen eine menschliche Fernsteuerung nicht moglich ist z B unter Wasser Auf lange Sicht konnen AWS billiger sein als Soldaten Grunde gegen AWS Verletzung der Menschenwurde Algorithmen konnten eigenstandig ohne menschliches Einwirken Entscheidungen uber Leben und Tod treffen Das ist aus moralischer Perspektive hochst problematisch da ein solches Vorgehen Menschen objektiviert und die Menschenwurde verletzt 36 Zerstorung der moralischen Instanz des Menschen Der Mensch hat eine moralische Instanz die seine Entscheidungen und Handlungen leitet selbst in Konflikten in denen Totungsentscheidungen gewissermassen normal sind Autonome Waffen schranken die menschliche Handlungsfahigkeit bei Entscheidungen zum Toten Verletzen und Zerstoren ein oder drohen sie sogar aufzuheben Dies ist ein entmenschlichender Prozess der unsere Werte und unsere gemeinsame Menschlichkeit untergrabt 37 Verantwortungslucke Wem soll die Verantwortung fur ein Fehlverhalten des Systems zugeschrieben werden wenn es unbeabsichtigt und unvorhersehbar war und keine Kontrolle mehr uber das AWS bestand Selbst ein Mensch in der Kontrollschleife HOTL Modus ist auf die Daten der Maschine angewiesen und steht unter immensem Zeitdruck so dass er kaum in der Lage ist einzugreifen 30 Fehleranfalligkeit von AWS Aufgrund ihres begrenzten Urteilsvermogens konnten sie rechtswidrige Befehle oder unverhaltnismassige Aktionen ausfuhren AWS konnten die Kriegsgefahr erhohen indem sie Kriege weniger schlimm machen siehe oben Cyberattacken konnten AWS so verandern dass sie zu einer unkontrollierbaren Gefahr werden 30 Initiativen fur Verbot oder Regulierung von AWS Bearbeiten Im Jahr 2008 forderte die in London ansassige Landmine Action das Verbot von LAWS im Rahmen der Landminen Verbotskonvention 38 Am 30 September 2009 wurde unter der Leitung von Noel Sharkey das International Committee for Robot Arms Control ICRAC gegrundet das sich fur eine Beschrankung des militarischen Einsatzes von Robotern einsetzt 39 Im April 2013 wurde die Campaign to Stop Killer Robots gegrundet Ihre mehr als 180 Mitgliedsorganisationen Stand 2023 40 setzen sich fur ein praventives Verbot von LAWS ein Der Berichterstatter des UN Menschenrechtsrats empfahl 2013 nationale Moratorien fur die Produktion Beschaffung Erprobung und den Einsatz von LAWS bis ein internationales Rahmenwerk vereinbart ist 41 Im Juli 2015 wurde auf der International Joint Conference on Artificial Intelligence in Buenos Aires ein offener Brief prasentiert in dem uber 1 000 hochrangige Expertinnen und Experten vor einem militarischen Wettrusten mit KI warnen und ein Verbot von LAWS fordern 42 Im Rahmen der UN Waffenkonvention fuhren die uber 100 Vertragsstaaten 43 seit 2014 Gesprache auch uber LAWS Im Jahr 2017 wurde eine Gruppe von Regierungsexperten eingerichtet die ein Rahmenwerk zu LAWS als Vorstufe fur ein rechtsverbindliches Zusatzprotokoll erarbeiten soll Ein Schritt in diese Richtung waren die 11 unverbindlichen Leitprinzipien auf die sich die Vertragsstaaten 2019 geeinigt haben Die zwei wichtigsten Prinzipien sind Das humanitare Volkerrecht gilt weiterhin uneingeschrankt fur alle Waffensysteme einschliesslich der potenziellen Entwicklung und des Einsatzes von todlichen autonomen Waffensystemen 44 Die menschliche Verantwortung fur Entscheidungen uber den Einsatz von Waffensystemen muss beibehalten werden da Verantwortung nicht auf Maschinen ubertragen werden kann Dies ist uber den gesamten Lebenszyklus des Waffensystems zu berucksichtigen 44 Maschinenethik Bearbeiten Auf der IEEE Robotics Konferenz 2002 in Genua 45 wurde vereinbart das Gebiet der Roboter Ethik aufzuteilen 46 Maschinenethik englisch machine ethics befasst sich mit dem Verhalten von Maschinen gegenuber Menschen Die Maschinenethik ist eine Ethik fur Maschinen fur ethische Maschinen fur Maschinen als Subjekte und nicht fur die menschliche Nutzung von Maschinen als Objekte 3 Roboterethik englisch roboethics befasst sich mit dem Verhalten von Menschen gegenuber Maschinen sowohl in der Entwurfs als auch in der Nutzungsphase Susan Anderson Pionierin der Maschinenethik definiert Das ultimative Ziel der Maschinenethik ist es eine Maschine zu schaffen die sich in ihrem Verhalten von einem idealen ethischen Prinzip oder einer Reihe von Prinzipien leiten lasst Vereinfacht gesagt geht es darum der Maschine eine ethische Dimension zu geben 47 Vincent C Muller dampft die Erwartungen Es ist nicht klar ob es einen konsistenten Begriff der Maschinenethik gibt da schwachere Versionen Gefahr laufen Ethik haben auf Begriffe zu reduzieren die normalerweise nicht als ausreichend angesehen wurden z B ohne Reflexion oder sogar ohne Handlung starkere Begriffe die sich in Richtung kunstlicher moralischer Agenten bewegen konnten eine derzeit leere Menge beschreiben 3 Das Deutsche Institut fur Normung untersuchte Ethikaspekte in der Normung und Standardisierung fur KI 48 Darin enthalten ist eine Ubersicht Stand 2020 einschlagiger ISO und IEEE Normen Maschinenethik als eine Reihe von Gesetzen zu formulieren war eine Idee des Biochemikers und Science Fiction Schriftstellers Isaac Asimov Seine Robotergesetze formulierte er erstmals 1942 in der Erzahlung Runaround 49 Verantwortlichkeit von Maschinen Bearbeiten Die Frage ob Maschinen fur ihre Aktionen verantwortlich sein konnen wird kontrovers diskutiert aber von den meisten Autoren verneint Colin Allen et al argumentieren dass ein kunstliches System moralisch verantwortlich sein kann wenn sein Verhalten funktional nicht von dem einer moralischen Person zu unterscheiden ist und pragen den Begriff eines moralischen Turing Tests If human interrogators cannot identify the machine at above chance accuracy then the machine is on this criterion a moral agent 50 Andreas Matthias warnt vor einer Verantwortungslucke Da der Hersteller oder Betreiber einer lernenden Maschine prinzipiell nicht mehr in der Lage ist deren zukunftiges Verhalten vorherzusagen kann er dafur auch nicht moralisch verantwortlich oder haftbar gemacht werden 51 Matthias Rath legt dar dass Maschinen nicht verantwortlich handeln konnen weil ihnen Willensfreiheit fehlt Die Fahigkeit die eigene Regelvorgabe zu problematisieren sich also uber diese intentional hinweg zu setzen und zwar ohne Programmierung des Aufstands gegen das Programm ist fur die Frage nach einem ethischen bzw ethisch relevanten moralischen Akteur unabdingbar Freiheit ist wie Immanuel Kant gezeigt hat zwar nicht empirisch belegbar aber sie ist als notwendiges Postulat der moralischen Handlung unmittelbar gewiss 52 Nach Meinung des Deutschen Ethikrats konnen Maschinen keine Verantwortung ubernehmen Moralische Verantwortung konnen nur naturliche Personen ubernehmen die uber Handlungsfahigkeit verfugen d h in der Lage sind aktiv zweckgerichtet und kontrolliert auf die Umwelt einzuwirken und dadurch Veranderungen zu verursachen Verantwortung kann daher nicht direkt von maschinellen Systemen ubernommen werden sondern nur von den Menschen die in je unterschiedlichen Funktionen hinter diesen Systemen stehen gegebenenfalls im Rahmen institutioneller Verantwortung 53 Selbst wenn Maschinen komplexe Vollzuge oder Operationen durchfuhren und flexibel mit anspruchsvollen Herausforderungen der menschlichen Lebenswelt umgehen konnen fuhren sie diese Veranderungen aber nicht absichtlich herbei und haben sie diese daher auch nicht in einem moralischen und rechtlichen Sinne zu verantworten Das Intentionalitatskriterium ist entscheidend fur die Moglichkeit der Zuschreibung von Verantwortung im Kontext von Mensch Maschine Interaktionen 54 Der sogenannte Automation Bias Menschen vertrauen algorithmisch generierten Ergebnissen und automatisierten Entscheidungsverfahren oft mehr als menschlichen Entscheidern kann dazu fuhren dass mit der Zeit das KI System als Entscheider angesehen wird und menschliche Autorschaft und Verantwortung ausgehohlt werden 55 Kunstliche moralische Agenten Bearbeiten Die Abkurzung AMA fur kunstliche moralische Agenten geht auf die englische Bezeichnung artificial moral agent zuruck Ein rationaler Agent auch als intelligenter Agent bezeichnet nimmt seine Umgebung mit Hilfe von Sensoren wahr und wahlt selbstandig Aktionen aus um ein vorgegebenes Ziels zu erreichen zudem kann er seine Performance durch Lernen verbessern Er zeichnet sich also durch Interaktivitat Autonomie und Anpassungsfahigkeit aus 56 siehe auch Software Agent Ein moralischer Agent ist ein rationaler Agent der fahig ist seine Aktionen nach ethischen Grundsatzen auszurichten und zumindest auf einer hoheren Stufe seine Handlungen auch zu begrunden Daraus folgt nicht dass moralischen Agenten auch Verantwortung zugeschrieben werden kann denn dazu fehlt ihnen die Willensfreiheit James Moor definiert vier Kategorien ethischer Agenten 57 Agenten mit ethischen Auswirkungen Agenten die moralische Konsequenzen erzeugen ohne dass diese Konsequenzen als solche beabsichtigt sind Implizit ethische Agenten Agenten die so entwickelt wurden dass sie unethische Ergebnisse vermeiden Sie besitzen keine wirkliche Handlungsfahigkeit da ihre moralischen Qualitaten ausschliesslich auf ihre Konstrukteure zuruckzufuhren sind Explizit ethische Agenten Agenten die moralisch relevante Informationen erkennen und verarbeiten konnen und moralische Entscheidungen treffen Vollstandig ethische Agenten Agenten die explizit moralische Urteile fallen und begrunden konnen Fur Wendell Wallach und Colin Allen wird der Grad von Moralitat durch die unterschiedliche Auspragung der beiden Dimensionen Autonomie und ethische Sensibilitat bestimmt Zwischen operationaler Moralitat die der untersten Stufe bei Moor entspricht und einer voll ausgebildeten Moralitat wie beim Menschen positionieren sie die als technisch realisierbar angesehene funktionale Moralitat bei der eine Maschine selbst fahig ist moralische Herausforderungen zu bewerten und darauf zu reagieren 58 9Moralische Agenten werden vor allem im Zusammenhang mit autonomen Waffensystemen und autonomen Fahrzeugen diskutiert Das erste ausgearbeitete Konzept eines moralischen Agenten war das von Ronald C Arkin entwickelt Ethikmodul fur autonome Waffensysteme 33 Realisierung moralischer Agenten Bearbeiten Gegen eine Realisierung moralischer Agenten spricht der auf John Searles Gedankenexperiment des chinesischen Zimmers zuruckgehende Einwand dass Maschinen keine mentalen Zustande haben konnen Eine moralische Handlung setzt aber den mentalen Zustand der Absicht voraus Der in der modernen Kognitionspsychologie verbreitete philosophische Funktionalismus umgeht Searles Einwand indem er mentale Zustande als funktionale Zustande versteht Auf einen bestimmten Input reagiert das System in Abhangigkeit vom aktuellen Zustand mit einem bestimmten Output und geht in einen anderen funktionalen Zustand uber Die reprasentationale Theorie des Geistes von Jerry Fodor verbindet diese Sichtweise mit der Computertheorie des Geistes Mentale Prozesse werden als Turing ahnliche Berechnungen uber strukturierten Symbolen den mentalen Zustanden verstanden Fur die Realisierbarkeit moralischer Agenten genugt es dass Computer funktionale Zustande haben die funktional aquivalent zu mentalen Zustanden sind Catrin Misselhorn bezeichnet sie als quasi intentionale Zustande 59 36 39Fur die Implementierung moralischer Agenten werden drei unterschiedliche Ansatze verfolgt Der Top down Ansatz entspricht dem prinzipienethischen Ansatz Es wird versucht moralische Prinzipien im Agenten abzubilden aus denen der Agent dann ableitet was in der konkreten Situation zu tun ist 59 40 Der Bottom up Ansatz entspricht dem partikularistischen Ansatz der auf der Fahigkeit beruht die ethisch relevanten Aspekte einer Situation zu erkennen Um diese Fahigkeiten in kunstlichen Systemen zu realisieren wird die Mustersuche in einer Datenmenge mit einem Lernenprozess kombiniert der eine Art ethische Evolution nachbildet 59 40 41 Der hybride Ansatz geht von einem vorgegebenen ethischen Regelwerk aus und passt es in einem Lernprozess an den spezifischen Anwendungsfall an 59 41Problem des Regelkonflikts In einer moralisch zu beurteilenden Situation konnen mehrere Prinzipien von Bedeutung sein Der moralische Agent muss herausfinden welche Prinzipien in einer Situation gelten und wie sie im Konfliktfall in Einklang zu bringen sind 60 Problem des Kontextwechsels Wenn der moralische Agent fur einen bestimmten Anwendungsbereich programmiert oder trainiert wurde ist unklar in welchen anderen Anwendungskontexten er eingesetzt werden kann 60 Alle nicht trivialen Beispiele fur den echten Einsatz von KI sind bisher auf dem Niveau von Agenten mit ethischen Auswirkungen Ihr Verhalten kann nicht ethisch genannt werden weil die Intention fehlt die eine Handlung erst ethisch macht 60 Datenschutz und Uberwachung Bearbeiten Siehe auch Globale Uberwachungs und Spionageaffare Siehe auch INDECT Kritik Siehe auch Videouberwachung Kritik Siehe auch UberwachungsdruckSingularitat durch superintelligente KI BearbeitenSiehe auch Technologische Singularitat Siehe auch SuperintelligenzLiteratur BearbeitenMatthias Rath Friedrich Krotz Matthias Karmasin Hrsg Maschinenethik Normative Grenzen autonomer Systeme Springe VS Wiesbaden 2018 ISBN 978 3 658 21082 3 doi 10 1007 978 3 658 21083 0 Oliver Bendel Hrsg Handbuch Maschinenethik Springer VS Wiesbaden 2019 ISBN 978 3 658 17482 8 Catrin Misselhorn Grundlagen der Maschinenethik Philipp Reclam jun Stuttgart 2018 ISBN 978 3 15 019583 3 Weblinks BearbeitenVincent C Muller Ethics of Artificial Intelligence and Robotics In The Stanford Encyclopedia of Philosophy Summer 2021 Editionn Edward N Zalta Uri Nodelman abgerufen am 20 Juni 2023 englisch John Stewart Gordon Sven Nyholm Ethics of Artificial Intelligence In Internet Encyclopedia of Philosophy Abgerufen am 23 Marz 2023 englisch Jaana Hallamaa Taina Kalliokoski AI Ethics as Applied Ethics Abgerufen am 30 Juni 2023 englisch Einzelnachweise Bearbeiten KI Systeme sind vom Menschen entwickelte Software und moglicherweise auch Hardware Systeme die in Bezug auf ein komplexes Ziel auf physischer oder digitaler Ebene agieren indem sie ihre Umgebung durch Datenerfassung wahrnehmen die gesammelten strukturierten oder unstrukturierten Daten interpretieren Schlussfolgerungen daraus ziehen oder die aus diesen Daten abgeleiteten Informationen verarbeiten und uber geeignete Massnahmen zur Erreichung des vorgegebenen Ziels entscheiden KI Systeme konnen auch ihr Verhalten anpassen indem sie analysieren wie die Umgebung von ihren vorherigen Aktionen beeinflusst wird Ethics guidelines for trustworthy AI Europaische Kommission 2019 abgerufen am 30 Juni 2023 a b Europaische Gruppe fur Ethik der Naturwissenschaften und der neuen Technologien Erklarung zu kunstlicher Intelligenz Robotik und autonomen Systemen Europaische Kommission Generaldirektion Forschung und Innovation 2018 abgerufen am 1 Mai 2023 a b c Vincent C Muller Ethics of Artificial Intelligence and Robotics In The Stanford Encyclopedia of Philosophy Summer 2021 Editionn Edward N Zalta Uri Nodelman abgerufen am 20 Juni 2023 englisch Norbert Wiener Some Moral and Technical Consequences of Automation In Science Band 131 Nr 3410 1960 S 1355 1358 JSTOR 1705998 Arthur L Samuel Some Moral and Technical Consequences of Automation A Refutation In Science Band 132 Nr 3429 1960 S 741 742 doi 10 1126 science 132 3429 741 Tom Lamar Beauchamp und James Franklin Childress Principles of biomedical ethics 8 Auflage Oxford University Press New York NY 2019 ISBN 978 0 19 064087 3 1 Auflage 1979 Jaana Hallamaa Taina Kalliokoski AI Ethics as Applied Ethics University of Helsinki 2022 abgerufen am 30 Juni 2023 englisch a b c d Ralf Stoecker Christian Neuhauser Marie Luise Raters Einfuhrung und Uberblick In Christian Neuhauser Marie Luise Raters Ralf Stoecker Hrsg Handbuch Angewandte Ethik 2 Auflage J B Metzler Stuttgart 2023 ISBN 978 3 476 05868 3 S 33 37 Marcus Duwell Prinzipienethik In Christian Neuhauser Marie Luise Raters Ralf Stoecker Hrsg Handbuch Angewandte Ethik 2 Auflage J B Metzler Stuttgart 2023 ISBN 978 3 476 05868 3 S 3 16 a b Dominik Duber Michael Quante Prinzipien Prinzipienkonflikte und moralischer Partikularismus In Normenbegrundung in Medizinethik und Biopolitik Kolleg Forschergruppe WWU Munster 2016 Abgerufen am 7 Juni 2023 Peter Shiu Hwa Tsu Moral Particularism In Internet Encyclopedia of Philosophy Abgerufen am 8 Juli 2023 englisch Anna Jobin Marcello Ienca Effy Vayena The global landscape of AI ethics guidelines In Nature Machine Intelligence Band 1 2019 S 389 399 doi 10 1038 s42256 019 0088 2 Maximilian Gahntz Erklarbare KI Kompetenzzentrum Offentliche IT abgerufen am 23 Mai 2023 a b Luciano Floridi Josh Cowls A Unified Framework of Five Principles for AI in Society In Harvard Data Science Review Band 1 Nr 1 2019 doi 10 1162 99608f92 8cd550d1 AI Principles Future of Life Institute abgerufen am 29 Marz 2023 englisch The Montreal Declaration for a Responsible Development of Artificial Intelligence Universite de Montreal abgerufen am 27 Juli 2023 englisch franzosisch ETHICALLY ALIGNED DESIGN A Vision for Prioritizing Human Well being with Autonomous and Intelligent Systems Institute of Electrical and Electronics Engineers IEEE abgerufen am 27 Juli 2023 englisch AI in the UK ready willing and able HOUSE OF LORDS Select Committee on Artificial Intelligence S 125 abgerufen am 27 Juli 2023 englisch Our Tenets Partnership on AI PAI abgerufen am 27 Juli 2023 englisch a b c d e f g h Bundesminister fur Verkehr und digitale Infrastruktur Hrsg Automatisiertes und vernetztes Fahren Berlin Juni 2017 bund de a b Vincent C Muller Ethics of Artificial Intelligence and Robotics In The Stanford Encyclopedia of Philosophy Summer 2021 Edition Edward N Zalta abgerufen am 31 Juli 2023 englisch Geoff Keeling The Ethics of Automated Vehicles Abgerufen am 6 August 2023 englisch Stamatis Karnouskos self driving car acceptance and the role of ethics In IEEE Transactions on Engineering Management 67 2 252 265 Band 67 Nr 2 Mai 2020 S 252 265 doi 10 1109 TEM 2018 2877307 englisch researchgate net dort weitere Literaturangaben Christoph Stockburger Was soll ihr Auto jetzt tun In Der Spiegel 29 August 2016 spiegel de abgerufen am 3 August 2023 Alexander Hevelke Julian Nida Rumelin Selbstfahrende Autos und Trolley Probleme Zum Aufrechnen von Menschenleben im Falle unausweichlicher Unfalle In Jahrbuch fur Wissenschaft und Ethik Band 19 Nr 1 2015 S 5 24 doi 10 1515 jwiet 2015 0103 Jean Francois Bonnefon Azim Shariff Iyad Rahwan The Social Dilemma of Autonomous Vehicles In Science Band 352 Nr 6293 24 Juni 2016 S 1573 1576 doi 10 1126 science aaf2654 englisch arxiv org PDF a b c Alexander Hevelke Julian Nida Rumelin Responsibility for Crashes of Autonomous Vehicles An Ethical Analysis In Science and Engineering Ethics Band 21 2015 S 619 630 doi 10 1007 s11948 014 9565 5 Frank Sauer Kunstliche Intelligenz in den Streitkraften Zum Handlungsbedarf bei Autonomie in Waffensystemen Bundesakademie fur Sicherheitspolitik abgerufen am 11 August 2023 ICRC position on autonomous weapon systems International Committee of the Red Cross abgerufen am 9 August 2023 englisch a b c d Catrin Misselhorn Autonome Waffensysteme Kriegsroboter In Oliver Bendel Hrsg Handbuch Maschinenethik Springer VS Wiesbaden 2019 ISBN 978 3 658 17482 8 S 319 334 Jean Michel Verney Thomas Vincotte Human On the Loop In Joint Air amp Space Power Conference 2021 Abgerufen am 14 August 2023 englisch Rules of Engagement und die Taschenkarten der Bundeswehr Wissenschaftlicher Dienst des Bundestages abgerufen am 15 August 2023 a b Ronald Arkin Governing Lethal Behavior in Autonomous Robots Chapman and Hall New York 2009 ISBN 978 1 4200 8595 2 S 79 ff doi 10 1201 9781420085952 Regulierung von autonomen Waffensystemen TAB Bericht Statement von Silja Voneky Science Media Center Germany abgerufen am 15 August 2023 Vincent C Muller Autonomous killer robots are probably good news In Ezio Di Nucci Filippo Santoni de Sio Hrsg Drones and responsibility Legal philosophical and sociotechnical perspectives on the use of remotely controlled weapons Ashgate London 2016 ISBN 978 1 315 57818 7 S 67 81 online 1 Autonome Waffensysteme keine Regulierung in Sicht Deutsche Gesellschaft fur die Vereinten Nationen e V abgerufen am 14 August 2023 What you need to know about autonomous weapons International Committee of the Red Cross abgerufen am 9 August 2023 englisch Anti landmine campaigners turn sights on war robots In New Scientist 28 March 2008 Abgerufen am 16 August 2023 englisch https www newscientist com article dn17887 campaign asks for international treaty to limit war robots html Stop Killer Robots About Us Abgerufen am 16 August 2023 englisch Christof Heynes Report of the Special Rapporteur on extrajudicial summary or arbitrary executions 113 UN General Assembly Human Rights Council abgerufen am 16 August 2023 englisch Musk Wozniak and Hawking urge ban on warfare AI and autonomous weapons In The Guardian Abgerufen am 17 August 2023 englisch Liste der Staaten die die Konvention ratifiziert haben In Vertragssammlung der Vereinten Nationen Vereinte Nationen 30 Marz 2022 abgerufen am 30 Marz 2022 englisch a b Final report Meeting of the High Contracting Parties to the Convention on Prohibitions or Restrictions on the use of Certain Conventional Weapons Which May Be Deemed to Be Excessively Injurious or to Have Indiscriminate Effects Geneva 13 15 November 2019 Anhang III Leitprinzipien United Nation abgerufen am 9 August 2023 englisch Proceedings 2002 IEEE International Conference on Robotics and Automation Abgerufen am 22 August 2023 englisch John P Sullins Introduction Open Questions in Roboethics In Philosophy amp Technology Nr 24 2011 S 233 238 doi 10 1007 s13347 011 0043 6 Susan Leigh Anderson Machine Metaethics 1 Auflage Cambridge University Press New York 2011 ISBN 978 0 521 11235 2 S 22 eingeschrankte Vorschau in der Google Buchsuche Deutsches Institut fur Normung Hrsg Ethik und kunstliche Intelligenz 2020 2 PDF Isaac Asimov Meine Freunde die Roboter Heyne Munchen 1982 Colin Allen Gary Varner Jason Zinser Prolegomena to any future artificial moral agent In Journal of Experimental amp Theoretical Artificial Intelligence Band 12 Nr 3 2000 S 251 261 doi 10 1080 09528130050111428 Andreas Matthias The responsibility gap Ascribing responsibility for the actions of learning automata In Ethics and Information Technology Band 6 Nr 3 2004 S 175 183 doi 10 1007 s10676 004 3422 1 Matthias O Rath Zur Verantwortungsfahigkeit kunstlicher moralischer Akteure Normative Grenzen autonomer Systeme In Matthias Rath Friedrich Krotz Matthias Karmasin Hrsg Maschinenethik Normative Grenzen autonomer Systeme Springe VS Wiesbaden 2018 ISBN 978 3 658 21082 3 S 223 242 doi 10 1007 978 3 658 21083 0 Mensch und Maschine Herausforderungen durch Kunstliche Intelligenz Deutscher Ethikrat abgerufen am 22 August 2023 S 17 Ziffer 43 Mensch und Maschine Herausforderungen durch Kunstliche Intelligenz Deutscher Ethikrat abgerufen am 22 August 2023 S 16 17 Ziffer 37 und 41 Mensch und Maschine Herausforderungen durch Kunstliche Intelligenz Deutscher Ethikrat abgerufen am 22 August 2023 S 22 Ziffer 65 Luciano Floridi J W Sanders On the Morality of Artificial Agents In Minds and Machines Band 14 Nr 3 2004 S 349 379 doi 10 1023 B MIND 0000035461 63578 9d James Moor The nature importance and difficulty of machine ethics In IEEE Intelligent Systems Band 21 Nr 4 2006 S 18 21 3 abgerufen am 26 August 2023 Wendell Wallach Colin Allen Moral Machines Teaching Robots Right from Wrong Oxford University Press New York 2009 ISBN 978 0 19 973797 0 a b c d Catrin Misselhorn Artificial Moral Agents In S Voeneky et al Hrsg The Cambridge Handbook of Responsible Artificial Intelligence Interdisciplinary Perspectives Cambridge Law Handbooks Cambridge University Press Cambridge 2022 ISBN 978 1 00 920789 8 S 31 49 doi 10 1017 9781009207898 005 a b c Alan F T Winfield Katina Michael Machine Ethics The Design and Governance of Ethical AI and Autonomous Systems In Proceedings of the IEEE Band 107 Nr 3 2019 S 509 517 doi 10 1109 JPROC 2019 2900622 Abgerufen von https de wikipedia org w index php title Ethik der Kunstlichen Intelligenz amp oldid 237624784