Marvin Minsky, der große Kognitionswissenschaftler und KI-Pionier, definierte KI wie folgt: 'Künstliche Intelligenz ist die Wissenschaft, die Computer dazu bringt, Dinge zu tun, die Intelligenz erfordern, wenn sie von Menschen ausgeführt werden.' Diese Standarddefinition sollte uns die Hauptmotivation verdeutlichen, die die Entwicklung des Bereichs der angewandten Ethik der künstlichen Intelligenz vorangetrieben hat:
Wenn Menschen "Dinge tun, die Intelligenz erfordern", machen wir sie verantwortlich für die Genauigkeit, Zuverlässigkeit und Fundiertheit ihrer Urteile. Darüber hinaus verlangen wir von ihnen, dass ihre Handlungen und Entscheidungen durch gute Gründe gestützt werden, und wir machen sie verantwortlich für die Fairness, Gerechtigkeit und Angemessenheit, wie sie andere behandeln.
Der Bedarf an Prinzipien, die auf das Design und die Nutzung von KI-Systemen zugeschnitten sind, entsteht dadurch, dass ihr Aufkommen und ihre wachsende Macht, "Dinge zu tun, die Intelligenz erfordern", eine Übertragung einer Vielzahl von kognitiven Funktionen auf algorithmische Prozesse bewirkt hat, die selbst weder direkt verantwortlich noch unmittelbar für die Folgen ihres Verhaltens zur Rechenschaft gezogen werden können.
Als träge und programmgestützte Maschinen sind KI-Systeme keine moralisch verantwortlichen Akteure. Damit ist im Bereich der angewandten Wissenschaft der KI eine ethische Lücke entstanden, die die wachsende Zahl von Regelwerken zur KI-Ethik derzeit zu füllen versucht. Gezielte Prinzipien wie Fairness, Verantwortlichkeit, Nachhaltigkeit und Transparenz sollen die "Lücke" zwischen der neuen "intelligenten Handlungsfähigkeit" von Maschinen und ihrem grundsätzlichen Mangel an moralischer Verantwortung füllen.
[[Understanding artificial intelligence ethics and safety, the alan turing institute]]