Airbnb utilise l'IA pour détecter "les fauteurs de troubles potentiels"

Auteur(s)
France-Soir
Publié le 31 octobre 2023 - 19:45
Image
Le logo de Airbnb à Paris, en 2019
Crédits
AFP - Lionel BONAVENTURE
AFP - Lionel BONAVENTURE

Pour protéger ses utilisateurs et leurs logements, Airbnb a mis au point un logiciel intelligent capable de détecter les signes annonciateurs d'une location... peu louable. Une nouveauté qui s'inscrit dans la lutte active contre les "fauteurs de troubles potentiels", leur cheval de bataille depuis 2020.

Anniversaires, nouvel an, projets X... Pendant la crise sanitaire (mais pas que), les logements locatifs rendus sens dessus dessous ont été légion et les plaintes des propriétaires n'ont pas tardé à suivre. Le géant de la location touristique a donc réagi, promettant de "faire tout [son] possible" pour empêcher ces dérives.

Dans un premier temps, ce sont des punitions a posteriori qui ont permis de calmer le jeu, notamment en interdisant les nouvelles locations des contrevenants, ou en limitant les locations des jeunes utilisateurs avec trop de mauvais avis.

Désormais, c'est une mesure préventive qui fait son apparition. Comme l'a rapporté la BBC dans un article du 25 octobre dernier, Airbnb a développé un logiciel "basé sur l'IA" pour détecter les profils douteux. Ce dernier analyse tout un tas d'informations, et signale celles qui peuvent être mauvais signe : date de création du compte relativement récente ; réservation souhaitée dans la même ville que sa ville de résidence ; durée du séjour limitée à une nuit ; coïncidence avec des périodes de fêtes comme Halloween ou le Nouvel An…

"Si quelqu’un réserve une chambre pour le réveillon du Nouvel An pour une nuit seulement et qu’il vient de la même ville que l’hôte, il s’agira probablement d’une fête.", explique Naba Banerjee, responsable de la sécurité et de la confiance chez Airbnb.

Le hic, comme l'a souligné Edward McFowland III, professeur adjoint de technologie et de gestion opérationnelle à la Harvard Business School, c'est que la machine peut aussi épingler quelqu'un de bien intentionné qui ne cocherait pas toutes les bonnes cases.

Après tout, une récente étude a montré que le fonctionnement d'une IA est comparable à celui d'un pigeon. Comme l'a rapporté le média Usbek&Rica, les auteurs de cette étude racontent que "les pigeons n’ont pas besoin de règle logique [comme les êtres humains], mais apprennent des essais précédents et de leurs erreurs", conformément au principe des algorithmes. Cela leur permettrait "de se souvenir des visages, de voir le monde avec des couleurs vives ou de parcourir des itinéraires complexes", mais aussi, logiquement, de répéter bêtement ce qu'on leur apprend.

L'article vous a plu ? Il a mobilisé notre rédaction qui ne vit que de vos dons.
L'information a un coût, d'autant plus que la concurrence des rédactions subventionnées impose un surcroît de rigueur et de professionnalisme.

Avec votre soutien, France-Soir continuera à proposer ses articles gratuitement  car nous pensons que tout le monde doit avoir accès à une information libre et indépendante pour se forger sa propre opinion.

Vous êtes la condition sine qua non à notre existence, soutenez-nous pour que France-Soir demeure le média français qui fait s’exprimer les plus légitimes.

Si vous le pouvez, soutenez-nous mensuellement, à partir de seulement 1€. Votre impact en faveur d’une presse libre n’en sera que plus fort. Merci.

Je fais un don à France-Soir

Les dessins d'ARA

Soutenez l'indépendance de FS

Faites un don

Nous n'avons pas pu confirmer votre inscription.
Votre inscription à la Newsletter hebdomadaire de France-Soir est confirmée.

La newsletter France-Soir

En vous inscrivant, vous autorisez France-Soir à vous contacter par e-mail.