Technologie & sélection

Comment choisir un bon locataire grâce à l'IA.

La sélection du locataire est l'étape la plus risquée — et la plus chronophage — d'un cycle de bail. Voici comment nous combinons IA et jugement humain pour réduire le risque d'impayé sans verser dans le biais discriminatoire.

Sélectionner un locataire, c'est un acte qui engage 1 à 9 ans de votre vie. C'est aussi l'étape où l'erreur coûte le plus cher : un mauvais locataire (impayés, dégradations, contentieux), même rare statistiquement, peut effacer 3 à 5 ans de rendement net.

Pendant longtemps, cette sélection s'est faite "à l'instinct" : un dossier, deux ou trois pièces vérifiées, une discussion lors de la visite, et la décision. Cette approche a deux faiblesses majeures : elle est biaisée (les études montrent que la décision intuitive incorpore des biais d'origine, de genre, de profession qui sont à la fois illégaux et inefficaces), et elle est inefficace (elle ne détecte pas la fraude documentaire, qui est en hausse depuis 2020).

L'IA ne remplace pas le jugement. Elle le rend plus rigoureux et plus équitable.

Le principe : structurer la décision.

La première chose qu'apporte l'IA, c'est la standardisation du processus. Tous les candidats sont évalués sur les mêmes critères, dans le même ordre, avec la même rigueur. Pas de "j'ai eu un bon feeling avec celui-là". Pas de "elle avait l'air de quelqu'un de bien".

Concrètement, chaque dossier passe par cinq étapes automatisées :

  1. Vérification documentaire — toutes les pièces sont obligatoires, en bonne définition, lisibles. Les pièces manquantes bloquent la candidature à ce stade.
  2. Détection de fraude — chaque document est passé au crible d'un modèle IA spécialisé en détection de manipulation (bulletins de paie, avis d'imposition, contrats).
  3. Calcul de solvabilité — ratio loyer/revenus net, stabilité professionnelle, présence et solidité d'un garant.
  4. Scoring de risque — modèle prédictif d'impayé sur 12 mois, calibré sur des données anonymisées de défaut historique.
  5. Justification écrite — chaque score est accompagné d'une explication rendant la décision auditable et expliquable.

Détecter la fraude documentaire.

La fraude au dossier locataire a explosé depuis l'apparition des outils d'édition de documents grand public et des modèles d'IA générative. En 2025, la Confédération nationale des administrateurs de biens estimait que 8 à 12 % des dossiers déposés en agence contenaient au moins une pièce manipulée. [À VÉRIFIER source]

Les manipulations les plus fréquentes

Comment l'IA détecte

Notre modèle de détection est entraîné sur trois types de signaux :

— Donnée Gestionaris

Sur les premiers mois d'opération, notre modèle a détecté en moyenne une fraude documentaire avérée toutes les 22 candidatures traitées. [Donnée à confirmer après 12 mois]

Le scoring de risque d'impayé.

Une fois la fraude écartée, le second rôle de l'IA est de calculer un score de risque d'impayé. Ce score n'est pas un prédicteur magique : c'est une estimation de probabilité, basée sur des corrélations historiques.

Variables prises en compte

Ce que le scoring NE prend PAS en compte

Très important pour la conformité légale : le scoring exclut systématiquement toutes les variables interdites par la loi (origine ethnique, supposée nationalité, religion, genre, situation familiale au sens large, état de santé, orientation sexuelle, opinions politiques) et toutes les variables susceptibles de produire un effet discriminatoire indirect (code postal de résidence actuelle, prénom).

Comment éviter les biais discriminatoires.

L'un des risques bien documentés des modèles d'IA appliqués à la sélection (logement, emploi, crédit) est de reproduire — voire d'amplifier — les biais présents dans les données historiques. Si le modèle est entraîné sur des décisions humaines passées qui étaient elles-mêmes biaisées, l'IA hérite du biais sous une forme automatisée et opaque.

Notre approche pour éviter ce piège :

1. Variables d'entrée auditées

Toute variable utilisée par le modèle est listée publiquement et auditable. Aucune variable proxy de critère discriminatoire (code postal, prénom, photo de profil) n'est utilisée.

2. Test de parité par cohorte

Le modèle est testé en continu sur la stabilité de ses prédictions selon le genre, l'âge et l'origine supposée des candidats (mesurée a posteriori sur des cohortes anonymisées). Si une cohorte voit son taux de validation systématiquement plus bas à dossier identique, le modèle est recalibré.

3. Décision finale humaine

Le modèle ne décide jamais seul. Il propose un scoring et une justification écrite. La décision finale appartient au gestionnaire humain (puis au propriétaire), qui peut accepter, rejeter ou demander un complément. Cela permet d'absorber les cas atypiques (jeune entrepreneur, retour de l'étranger, mutation professionnelle) que le modèle traiterait mal.

4. Respect strict du droit du logement

Tous nos critères respectent l'article 1 de la loi du 6 juillet 1989 et la liste des pièces autorisées par le décret du 5 novembre 2015. Aucun document non listé n'est demandé. Aucun candidat n'est écarté sur un motif autre que la solvabilité ou la complétude du dossier.

Le jugement humain reste central.

L'IA fait trois choses très bien : détecter la fraude documentaire, calculer la solvabilité, et standardiser le processus. Elle ne remplace pas le jugement humain pour quatre raisons principales :

L'IA est un outil de standardisation et de filtrage. Le jugement reste à l'humain. C'est la combinaison qui fait la qualité de la sélection — pas l'un ni l'autre seul.

En pratique chez Gestionaris.

Pour chaque mise en location, notre processus est :

  1. Réception des candidatures via la page de candidature publique de l'annonce, ou import direct DossierFacile.
  2. Filtrage automatique de complétude (pièces obligatoires présentes, lisibles, nominatives).
  3. Passage au crible IA fraude + scoring solvabilité.
  4. Visite tenue par notre équipe avec impression du gestionnaire référent.
  5. Présentation au propriétaire d'une shortlist de 2 à 3 dossiers avec score, justification, et recommandation argumentée du gestionnaire.
  6. Décision finale du propriétaire en un clic, ou demande de complément.
  7. Bail signé Yousign avec le candidat retenu, état des lieux mobile à l'entrée.

Notre processus est conçu pour aller vite — préparation de l'annonce dès réception du préavis, vérification anti-fraude des dossiers en parallèle des visites, shortlist proposée au propriétaire dès qu'elle est solide. Nous publierons les délais médians chiffrés (candidature à décision, décision à bail signé, vacance entre deux locataires) une fois que le cabinet aura un historique de douze mois.

J
Jules Livarek
Co-fondateur · Développement stratégique
Sélection sécurisée

Vous voulez un locataire fiable, vite ?

Notre processus de mise en location combine IA, scoring, vérification anti-fraude et jugement humain. En 30 jours, votre bien est loué à un dossier solide, avec garantie loyers impayés en option.