公平住房与人工智能的交汇点
《公平住房法》禁止基于种族、肤色、宗教、性别、国籍、家庭状况和残疾的歧视。州和地方法律还增加了其他受保护类别。当您使用人工智能筛选租户时,您有责任确保人工智能不会进行任何形式的歧视——无论是有意还是无意。
人工智能歧视可以通过三种方式发生:差别对待(根据受保护的特征区别对待潜在客户)、差别影响(中立的政策对受保护群体造成不成比例的影响)和引导(根据人口统计数据引导潜在客户选择或远离某些房产)。
你的人工智能绝对不能问的问题
这些都是会立即造成公平住房风险的禁忌问题:
- 种族、民族或国籍——包括从姓名或口音推断出的种族、民族或国籍。
- 宗教——包括有关宗教节日、饮食限制或礼拜场所的问题。
- 家庭状况——包括有关怀孕、子女数量或生育计划的问题。
- 残疾——包括有关医疗状况、药物或住宿需求的问题。
- 性取向或性别认同——在许多司法管辖区都受到保护。
- 收入来源——受到越来越多的保护;在受保护的司法管辖区内,您不得歧视第 8 条款或其他援助计划。
你的人工智能应该问的问题
安全、法律中立的筛选问题侧重于租户资格标准:
- 入住日期和租期偏好。
- 每月预算和收入核实。
- 家庭规模(仅用于居住人数合规性——不得歧视)。
- 宠物信息(如果您有宠物政策)。
- 吸烟状况(如果您实行禁烟政策)。
- 租赁记录和推荐信。
定期审核您的人工智能
人工智能系统会随着时间推移而出现偏差。一个最初公平的模型,随着处理的数据量增加,可能会产生偏差。建议您每季度对您的人工智能筛选工具进行审核:
随机抽取部分筛选对话进行审查。检查所有潜在客户是否都收到了相同顺序的相同问题。确认没有请求或推断出任何受保护类别的信息。记录您的发现。如果发现问题,请立即重新训练或重新配置人工智能。
一些司法管辖区现在要求对用于住房领域的AI工具进行算法影响评估。即使没有强制要求,进行评估也是最佳实践。
文件就是你的辩护武器
如果发生住房公平投诉,您的证据是您唯一的辩护理由。请保留以下记录:
- 您的书面筛选标准(需注明日期并签名)。
- 人工智能的问题集和配置。
- 所有筛选互动(提出的问题、给出的答案)。
- 您的审计日志以及采取的任何纠正措施。
- 向员工提供关于公平住房和人工智能使用的培训材料。
公平住房遵守人工智能筛选合法的