La intersección entre la vivienda justa y la IA
La Ley de Vivienda Justa prohíbe la discriminación por motivos de raza, color, religión, sexo, origen nacional, estado familiar y discapacidad. Las leyes estatales y locales incluyen categorías protegidas adicionales. Al usar inteligencia artificial para evaluar a los inquilinos, usted es responsable de garantizar que la IA no discrimine, ya sea intencional o involuntariamente.
La discriminación en materia de IA puede producirse de tres maneras: trato discriminatorio (tratar a los posibles clientes de forma diferente en función de características protegidas), impacto discriminatorio (políticas neutrales que afectan desproporcionadamente a grupos protegidos) y orientación (dirigir a los posibles clientes hacia o lejos de ciertas propiedades en función de datos demográficos).
Preguntas que tu IA nunca debe hacerte
Estas son cuestiones críticas que generan un riesgo inmediato de discriminación en materia de vivienda:
- Raza, etnia u origen nacional, incluyendo inferencias a partir del nombre o el acento.
- Religión: incluyendo preguntas sobre festividades religiosas, restricciones dietéticas o lugar de culto.
- Situación familiar: incluye preguntas sobre el embarazo, el número de hijos o los planes para tener hijos.
- Discapacidad: incluidas preguntas sobre afecciones médicas, medicamentos o necesidad de adaptaciones.
- Orientación sexual o identidad de género: protegidas en muchas jurisdicciones.
- Fuente de ingresos: cada vez está más protegida; no se puede discriminar contra los programas de la Sección 8 u otros programas de asistencia en las jurisdicciones cubiertas.
Preguntas que tu IA debería hacerte
Las preguntas de selección, seguras y legalmente neutrales, se centran en los criterios de arrendamiento:
- Preferencias sobre la fecha de mudanza y la duración del contrato de arrendamiento.
- Presupuesto mensual y verificación de ingresos.
- Tamaño del hogar (solo para cumplir con los requisitos de ocupación; no para discriminar).
- Información sobre mascotas (si tiene una política que permite mascotas).
- Situación de fumador (si tiene una política de no fumar).
- Historial de alquiler y referencias.
Realice auditorías periódicas de su IA
Los sistemas de IA pueden desviarse con el tiempo. Un modelo que era justo al principio puede desarrollar sesgos a medida que procesa más datos. Programe auditorías trimestrales de su herramienta de selección de IA.
Analice una muestra aleatoria de conversaciones de preselección. Compruebe que todos los prospectos recibieron las mismas preguntas en el mismo orden. Verifique que no se solicitó ni se infirió información confidencial. Documente sus hallazgos. Si encuentra problemas, reentrene o reconfigure la IA de inmediato.
Algunas jurisdicciones ahora exigen evaluaciones de impacto algorítmico para las herramientas de IA utilizadas en vivienda. Incluso si no son obligatorias, realizar una es una buena práctica.
La documentación es su defensa.
Si surge una queja por discriminación en la vivienda, su documentación es su única defensa. Conserve registros de:
- Sus criterios de selección por escrito (fechados y firmados).
- El conjunto de preguntas y la configuración de la IA.
- Todas las interacciones de cribado (preguntas formuladas, respuestas dadas).
- Sus registros de auditoría y las medidas correctivas adoptadas.
- Se proporcionaron materiales de capacitación al personal sobre vivienda justa y uso de la IA.