Skip to content

使用人工智能筛选工具时遵守公平住房法规

2025年5月4日7 最小阅读量遵守
Share

公平住房与人工智能的交汇点

《公平住房法》禁止基于种族、肤色、宗教、性别、国籍、家庭状况和残疾的歧视。州和地方法律还增加了其他受保护类别。当您使用人工智能筛选租户时,您有责任确保人工智能不会进行任何形式的歧视——无论是有意还是无意。

人工智能歧视可以通过三种方式发生:差别对待(根据受保护的特征区别对待潜在客户)、差别影响(中立的政策对受保护群体造成不成比例的影响)和引导(根据人口统计数据引导潜在客户选择或远离某些房产)。

你的人工智能绝对不能问的问题

这些都是会立即造成公平住房风险的禁忌问题:

  • 种族、民族或国籍——包括从姓名或口音推断出的种族、民族或国籍。
  • 宗教——包括有关宗教节日、饮食限制或礼拜场所的问题。
  • 家庭状况——包括有关怀孕、子女数量或生育计划的问题。
  • 残疾——包括有关医疗状况、药物或住宿需求的问题。
  • 性取向或性别认同——在许多司法管辖区都受到保护。
  • 收入来源——受到越来越多的保护;在受保护的司法管辖区内,您不得歧视第 8 条款或其他援助计划。

你的人工智能应该问的问题

安全、法律中立的筛选问题侧重于租户资格标准:

  • 入住日期和租期偏好。
  • 每月预算和收入核实。
  • 家庭规模(仅用于居住人数合规性——不得歧视)。
  • 宠物信息(如果您有宠物政策)。
  • 吸烟状况(如果您实行禁烟政策)。
  • 租赁记录和推荐信。

定期审核您的人工智能

人工智能系统会随着时间推移而出现偏差。一个最初公平的模型,随着处理的数据量增加,可能会产生偏差。建议您每季度对您的人工智能筛选工具进行审核:

随机抽取部分筛选对话进行审查。检查所有潜在客户是否都收到了相同顺序的相同问题。确认没有请求或推断出任何受保护类别的信息。记录您的发现。如果发现问题,请立即重新训练或重新配置人工智能。

一些司法管辖区现在要求对用于住房领域的AI工具进行算法影响评估。即使没有强制要求,进行评估也是最佳实践。

文件就是你的辩护武器

如果发生住房公平投诉,您的证据是您唯一的辩护理由。请保留以下记录:

  • 您的书面筛选标准(需注明日期并签名)。
  • 人工智能的问题集和配置。
  • 所有筛选互动(提出的问题、给出的答案)。
  • 您的审计日志以及采取的任何纠正措施。
  • 向员工提供关于公平住房和人工智能使用的培训材料。
公平住房遵守人工智能筛选合法的
Share

准备好将这些想法付诸实践了吗?

使用 Rentalot 自动处理您的租赁咨询、预筛选和后续跟进。