Sélectionner un locataire, c'est un acte qui engage 1 à 9 ans de votre vie. C'est aussi l'étape où l'erreur coûte le plus cher : un mauvais locataire (impayés, dégradations, contentieux), même rare statistiquement, peut effacer 3 à 5 ans de rendement net.
Pendant longtemps, cette sélection s'est faite "à l'instinct" : un dossier, deux ou trois pièces vérifiées, une discussion lors de la visite, et la décision. Cette approche a deux faiblesses majeures : elle est biaisée (les études montrent que la décision intuitive incorpore des biais d'origine, de genre, de profession qui sont à la fois illégaux et inefficaces), et elle est inefficace (elle ne détecte pas la fraude documentaire, qui est en hausse depuis 2020).
L'IA ne remplace pas le jugement. Elle le rend plus rigoureux et plus équitable.
Le principe : structurer la décision.
La première chose qu'apporte l'IA, c'est la standardisation du processus. Tous les candidats sont évalués sur les mêmes critères, dans le même ordre, avec la même rigueur. Pas de "j'ai eu un bon feeling avec celui-là". Pas de "elle avait l'air de quelqu'un de bien".
Concrètement, chaque dossier passe par cinq étapes automatisées :
- Vérification documentaire — toutes les pièces sont obligatoires, en bonne définition, lisibles. Les pièces manquantes bloquent la candidature à ce stade.
- Détection de fraude — chaque document est passé au crible d'un modèle IA spécialisé en détection de manipulation (bulletins de paie, avis d'imposition, contrats).
- Calcul de solvabilité — ratio loyer/revenus net, stabilité professionnelle, présence et solidité d'un garant.
- Scoring de risque — modèle prédictif d'impayé sur 12 mois, calibré sur des données anonymisées de défaut historique.
- Justification écrite — chaque score est accompagné d'une explication rendant la décision auditable et expliquable.
Détecter la fraude documentaire.
La fraude au dossier locataire a explosé depuis l'apparition des outils d'édition de documents grand public et des modèles d'IA générative. En 2025, la Confédération nationale des administrateurs de biens estimait que 8 à 12 % des dossiers déposés en agence contenaient au moins une pièce manipulée. [À VÉRIFIER source]
Les manipulations les plus fréquentes
- Bulletins de paie gonflés : modification du salaire net, du nombre d'heures, des primes. C'est la fraude la plus courante.
- Faux avis d'imposition : généralement reconstitués via un template, avec des incohérences entre les rubriques fiscales facilement détectables.
- Faux contrats de travail : entreprise inventée, ou copie d'un contrat réel d'une autre personne avec modification du nom.
- Garants fictifs : pièces d'identité ou avis d'imposition de garants qui n'existent pas, ou qui ont déjà donné leur caution sur 6 autres dossiers.
Comment l'IA détecte
Notre modèle de détection est entraîné sur trois types de signaux :
- Cohérence interne : les chiffres d'un bulletin de paie sont liés mathématiquement entre eux (brut × taux cotisation = net imposable, etc.). Une incohérence de 1 € trahit une manipulation.
- Cohérence inter-documents : le salaire annuel cumulé sur 12 bulletins doit correspondre au revenu déclaré dans l'avis d'imposition. Le nom de l'employeur sur le bulletin doit correspondre à celui du contrat.
- Anomalies de format : polices substituées, alignements verticaux légèrement décalés, métadonnées PDF d'édition récente sur un document qui devrait dater de 2 ans, sont autant de signaux que les modèles savent détecter.
— Donnée Gestionaris
Sur les premiers mois d'opération, notre modèle a détecté en moyenne une fraude documentaire avérée toutes les 22 candidatures traitées. [Donnée à confirmer après 12 mois]
Le scoring de risque d'impayé.
Une fois la fraude écartée, le second rôle de l'IA est de calculer un score de risque d'impayé. Ce score n'est pas un prédicteur magique : c'est une estimation de probabilité, basée sur des corrélations historiques.
Variables prises en compte
- Ratio loyer/revenus net : seuil traditionnel à 33 %. Au-delà de 38 %, le risque d'impayé devient significatif (les statistiques GLI confirment).
- Stabilité professionnelle : ancienneté dans l'entreprise actuelle, type de contrat (CDI, CDD, intérim, indépendant), historique d'emploi.
- Présence et solidité d'un garant : un garant solvable et indépendant change radicalement le profil de risque.
- Historique locatif (si disponible) : antériorité de location, durée des baux précédents, paiements ponctuels (sur la base de quittances récentes ou attestations bailleurs).
- Charges déclarées : crédits en cours, nombre de personnes à charge.
Ce que le scoring NE prend PAS en compte
Très important pour la conformité légale : le scoring exclut systématiquement toutes les variables interdites par la loi (origine ethnique, supposée nationalité, religion, genre, situation familiale au sens large, état de santé, orientation sexuelle, opinions politiques) et toutes les variables susceptibles de produire un effet discriminatoire indirect (code postal de résidence actuelle, prénom).
Comment éviter les biais discriminatoires.
L'un des risques bien documentés des modèles d'IA appliqués à la sélection (logement, emploi, crédit) est de reproduire — voire d'amplifier — les biais présents dans les données historiques. Si le modèle est entraîné sur des décisions humaines passées qui étaient elles-mêmes biaisées, l'IA hérite du biais sous une forme automatisée et opaque.
Notre approche pour éviter ce piège :
1. Variables d'entrée auditées
Toute variable utilisée par le modèle est listée publiquement et auditable. Aucune variable proxy de critère discriminatoire (code postal, prénom, photo de profil) n'est utilisée.
2. Test de parité par cohorte
Le modèle est testé en continu sur la stabilité de ses prédictions selon le genre, l'âge et l'origine supposée des candidats (mesurée a posteriori sur des cohortes anonymisées). Si une cohorte voit son taux de validation systématiquement plus bas à dossier identique, le modèle est recalibré.
3. Décision finale humaine
Le modèle ne décide jamais seul. Il propose un scoring et une justification écrite. La décision finale appartient au gestionnaire humain (puis au propriétaire), qui peut accepter, rejeter ou demander un complément. Cela permet d'absorber les cas atypiques (jeune entrepreneur, retour de l'étranger, mutation professionnelle) que le modèle traiterait mal.
4. Respect strict du droit du logement
Tous nos critères respectent l'article 1 de la loi du 6 juillet 1989 et la liste des pièces autorisées par le décret du 5 novembre 2015. Aucun document non listé n'est demandé. Aucun candidat n'est écarté sur un motif autre que la solvabilité ou la complétude du dossier.
Le jugement humain reste central.
L'IA fait trois choses très bien : détecter la fraude documentaire, calculer la solvabilité, et standardiser le processus. Elle ne remplace pas le jugement humain pour quatre raisons principales :
- Les cas atypiques. Un candidat venant d'une mobilité internationale, un entrepreneur à fort revenu mais variable, un étudiant avec des parents garants : ce sont des dossiers qui sortent des templates. L'humain les comprend, le modèle les note prudemment.
- L'adéquation au bien. Un dossier solvable peut être inadéquat pour un bien spécifique (couple avec deux enfants pour un T1, étudiant pour un appartement familial 4 pièces). C'est un jugement de cohérence que l'IA ne fait pas.
- L'évaluation qualitative. La rencontre lors d'une visite reste un moment clé : sérieux, ponctualité, qualité des questions posées. Ce sont des indices comportementaux que le dossier ne capture pas.
- La responsabilité. Quelqu'un doit assumer la décision et la défendre s'il y a litige. Ce quelqu'un, c'est le gestionnaire humain, jamais le modèle.
L'IA est un outil de standardisation et de filtrage. Le jugement reste à l'humain. C'est la combinaison qui fait la qualité de la sélection — pas l'un ni l'autre seul.
En pratique chez Gestionaris.
Pour chaque mise en location, notre processus est :
- Réception des candidatures via la page de candidature publique de l'annonce, ou import direct DossierFacile.
- Filtrage automatique de complétude (pièces obligatoires présentes, lisibles, nominatives).
- Passage au crible IA fraude + scoring solvabilité.
- Visite tenue par notre équipe avec impression du gestionnaire référent.
- Présentation au propriétaire d'une shortlist de 2 à 3 dossiers avec score, justification, et recommandation argumentée du gestionnaire.
- Décision finale du propriétaire en un clic, ou demande de complément.
- Bail signé Yousign avec le candidat retenu, état des lieux mobile à l'entrée.
Notre processus est conçu pour aller vite — préparation de l'annonce dès réception du préavis, vérification anti-fraude des dossiers en parallèle des visites, shortlist proposée au propriétaire dès qu'elle est solide. Nous publierons les délais médians chiffrés (candidature à décision, décision à bail signé, vacance entre deux locataires) une fois que le cabinet aura un historique de douze mois.
J
Jules Livarek
Co-fondateur · Développement stratégique