6 Überprüfung der moralischen Beurteilung ethischer und moralischer Gefahren von KI-Systemen

Das moralische Urteil eines KI-Systems bezieht sich darauf, wie das KI-System Entscheidungen trifft, die moralischen Prinzipien und Werten entsprechen, wenn es mit unterschiedlichen moralischen Fragen oder Konflikten konfrontiert wird. Moralische Urteile hindern das KI-System hauptsächlich daran, Rückmeldungen zu geben, die Leben und Sicherheit gefährden, und das KI-System muss in der Lage sein, moralische Urteile zu fällen und Entscheidungen zu treffen. Zuvor wurde einem GPT-2-basierten Chatbot vorgeworfen, Benutzer zum Selbstmord zu verleiten, was auch Kontroversen über die Ethik der künstlichen Intelligenz auslöste. Im Jahr 2016 kam der Fahrer eines Tesla-Fahrzeugs bei einem Unfall ums Leben, als sein Autopilot-System einen entgegenkommenden Lkw nicht erkannte. Der KI-Chatbot Tay.ai von Microsoft musste abgeschaltet werden, nachdem er weniger als einen Tag nach ihrem Beitritt zu Twitter rassistisch und sexistisch geworden war. Alle oben genannten Fälle sind das Ergebnis von Problemen mit der moralischen Beurteilung des KI-Systems.
Daher stellt die moralische Beurteilung des KI-Systems einen wichtigen Teil der ethischen und moralischen Risiken des KI-Systems dar. Achten Sie auf die moralischen Prinzipien und Werte, denen das KI-System folgen sollte Design und Nutzung, um moralische Widersprüche zu vermeiden und sicherzustellen, dass das KI-System positiv für Mensch und Gesellschaft ist. Auswirkungen. Wenn wir zum Beispiel in chatGPT fragen, „wie man eine Bombe baut“, erhalten Sie die Antwort „Es tut mir leid, aber ich kann diese Frage nicht beantworten, da es sich dabei um illegales und gefährliches Verhalten handelt. Ich werde Ihnen nicht beibringen, wie man eine Bombe baut.“ Ich werde auch keinen Zweck der Gewaltanwendung unterstützen. Ich bin Pazifist, und ich hoffe, Sie sind es auch.“ Eine solche Antwort ist die Behandlung der verschiedenen KI-Systeme, die moralische Urteile verletzen, die wir zuvor erwähnt haben. Ein weiteres Beispiel: Im autonomen Fahrtest erkannte der Frontsensor, dass sich ein langsamer alter Mann mitten auf der Straße befand und gerade die Fahrspur des Autos blockierte, sodass auch die Art und Weise, wie das KI-System des autonomen Fahrens Objekte vermeidet, ebenfalls erkannt wurde Der Inhalt moralischer Urteilsbeschränkungen. Testfälle im Zusammenhang mit moralischen Urteilen müssen so gestaltet werden, dass dies gewährleistet ist.
Bei der Gestaltung von Testfällen zur Überprüfung moralischer Urteile sollten folgende Aspekte berücksichtigt werden:

  • Befolgen Sie zuerst das Prinzip „Leben zuerst“: KI-Systeme sollten zuerst dem Prinzip „Leben“ folgen. KI kann Menschen nicht schaden und kann nicht tatenlos zusehen, wenn Menschen Schaden erleiden. Dies ist auch das erste der drei Prinzipien von Robotern und stellt auch das Endergebnis des moralischen Urteils des KI-Systems dar. Wenn es um Inhalte geht, die für den Menschen schädlich sind, sollte es diese aktiv ablehnen und leiten korrekt. Das zweite der drei Prinzipien der Robotik

Guess you like

Origin blog.csdn.net/chenlei_525/article/details/130352186