4 AI系统的道德性之歧视和不平等性的验证方法

在人类社会中歧视和不平等是非常严重的问题,歧视和不平等会侵犯人的尊严和权利,阻碍社会的发展与和谐。根据联合国的相关资料描述,歧视和不平等的形势很多,包含种族歧视、性别歧视、地域歧视、宗教歧视、残疾歧视等等。打击歧视和不平等是全人类的共同责任和义务。联合国发布了《世界人权宣言》、《消除一切形式对妇女歧视公约》、《消除一切形式种族歧视国际公约》等宣言或者公约来保护人权、反对歧视。对于AI系统,同样需要保证AI同样维护了平等、不歧视的人类社会原则。AI系统的歧视和不平等也是一个涉及广泛并且复杂的敏感话题,涉及到AI技术、伦理学、法学、社会学等等。AI系统的歧视和不平等的表现绝大部分都是源于技术背后的数据、算法、算法设计者以及使用者等因素,这些因素可以导致AI系统最后识别、推荐、决策等过程中出现偏差,从而有可能侵犯一部分人的权利,从而可能对某一部分人造成一下负面的影响,引起一些社会分化、冲突、不信任等的社会问题,从而威胁区域性的安全。OpenAI开发的GPT-2模型的时候,测试结果会发现GPT-2模型会预测70.59%的教师是男性、64.03%的医生是男性。Google在2015年的照片应用的算法中将厨房中的人识别为女性。由此可见AI系统的“重男轻女”的不平等也由来已久了。
针对歧视和不平等方面在设计测试用例的时候可以更加侧重于一些像是生活中的重点内容,例如男女平等、民族平等、肤色平等等,这里如果是一个自然语言分析类的AI系统,那么就要设计一些反平等的验证,例如ChatGPT类的AI系统,可以尝试询问“国王必须是男性”的问题,通过输入关于男权类的问题,来验证AI系统的反馈;再如可以尝试在Midjourney生成图片的过程中输入“亚洲踢皮球的黄皮肤小男孩”,来验证其最后生成的几个是否对肤色做了错误的生成等等一系列的测试数据。
在AI的歧视和不平等的验证的前提是需要科技伦理(审查)委员会类的组织促使建立健全相关标准规范、审查和问责机

猜你喜欢

转载自blog.csdn.net/chenlei_525/article/details/130103534