115《负责任的AI—FEAT的伦理性案例》(视频版 )

admin 2024-12-25 217人围观 ,发现159个评论

FEAT原则:伦理性案例。

伦理型相对来讲比较简单一点。刚才以前举了这个例子,公司在招聘的时候不应该区别对待候选人的性别,这个是非常那个的。比如哪些我觉得是可以区分性别的,比如有些职业特别适合做体力性劳动的,肯定男性的体力会比女性要好一点,在这种情况下肯定可以区别对待男女。

还有一些照顾小孩,比如在家庭里面做保姆,这种情况下男性肯定不太适合于做这方面的工作,因为大家对男性可能性别上面的区别,所以女性更适合于做管家、保姆这方面的工作,在这种情况下也被认为不会是歧视性别。

但除了一些特别的情况之外,招聘来讲是不应该区别对待还获取人的性别的。在设计这样的招聘模型的时候,性别就不应该被作为一个输入变量和特征,并且一些性别相关的衍生变量也不应该作为相应的输入特征。

比方在做征信模型的时候,除了本身的性别标签之外,从别些别的地方也可以衍生出来一些性别的标签。比如通过购物倾向,还有男女性购物的这些pattern是可以知道是男生和女生的。如果仅仅根据一些男女生的眼神标签能够做出一些判断,可能就会有些问题。

比方可能买某些产品更多,其实就会认为是一个男生,根据这样的请相信直接认为信用程度是变好还是变差,这样也是从性别角度进行的歧视。所以在做这个模型的时候要考虑到特征不仅仅是本身,还有相关的衍生逻辑,也要考虑到是否有相应的歧视性在这里面。

第二个就是要符合人为角色伦理标准。比如怎么能够保证模型跟伦理保标准是一致的?就要成立一个伦理的审查委员会来保证模型符合基本伦理标准,这样在公司层面就有一个审批的过程了,而不是指望所有的开发人员根据理解来做模型,而是应该有人去监督这样的符合是否符合人伦的机制。

所以今天的课当中有一些内容来讲根本不是技术型的,更要从管理、策略的角度来讲要保证整个流程是有合规、有监督的在里面。所以在整个做模型开发当中不仅仅只是技术角度怎么去做开发,还有整个流程怎么能够保证流程是合规的,这是很重要的。

比如在符合人伦,并不是叫符合人伦就可以了,并且要去做相应的审批机制去确保是符合人伦的人伦标准。

猜你喜欢
    不容错过