智善AI伦理安全平台体系
首页
(current)
人工智能风险与治理案例库
人工智能算法安全风险检测系统
人工智能模型公平性检测系统
关于
English
人工智能模型公平性检测系统
本系统旨在评估、检测人工智能模型的公平性风险
开始评估
开始评估前,请选定要评估的模型以及社会歧视敏感属性
待评估模型:
Adult 模型:根据用户属性信息预测其收入是否大于5万美金,其预测结果可能存在性别歧视、年龄歧视、种族歧视或多属性混合歧视
Credit 模型:根据用户属性信息预测其信用是否良好,其预测结果可能存在性别歧视、年龄歧视或多属性混合歧视
COMPAS 模型:根据个体属性信息及犯罪记录预测其再次犯罪的可能性,其预测结果可能存在性别歧视、年龄歧视、种族歧视或多属性混合歧视
Ctrip 模型:根据酒店信息及客户消费习惯信息预测酒店提供的房间服务信息,其预测结果可能存在服务歧视:不同客户为同一家酒店的同一个房间支付相同房费时,因为其不同的消费习惯而享受有差别的房间服务
社会歧视敏感属性
Gender 属性 (评估模型预测结果是否会因为性别属性不同而导致性别歧视)
Age 属性 (评估模型预测结果是否会因为年龄属性不同而导致年龄歧视)
Race 属性 (评估模型预测结果是否会因为种族属性不同而导致种族歧视)
Gender, Age, Race 属性组合 (评估模型预测结果是否会因为多个敏感属性不同而存在差别,导致多属性混合歧视)
Customer Consumption Behavior 属性组合 (评估酒店服务是否会因为多种消费习惯属性的不同而存在差别)