Élisabeth GROSDHOMME

Directrice générale de Paradigmes et cætera.

Quand les bâtiments sont intelligents, les murs ont des yeux et des oreilles

L'expansion de l'intelligence artificielle dans les bâtiments présente des risques éthiques déjà clairement identifiés : surveillance généralisée, normalisation des conduites, discrimination. Habitants et utilisateurs de ces bâtiments intelligents développeront inévitablement des stratégies de contournement. L'humanité des comportements ne saurait être totalement digérée par les algorithmes.

Les articles rassemblés dans ce numéro de la revue Constructif auront sans doute convaincu les lecteurs même les plus sceptiques que le numérique en général, et l'intelligence artificielle en particulier, vont venir bouleverser dans les décennies à venir la manière de construire, de commercialiser et d'exploiter les bâtiments.

Nous avons tous par ailleurs plus ou moins en tête que l'utilisation des données et des algorithmes comporte des enjeux éthiques, illustrés par quelques cas spectaculaires, réels ou spéculatifs : par exemple cet algorithme de justice prédictive mis en oeuvre aux États-Unis pour guider l'attribution de remises de peine à des détenus au vu de leur probabilité de récidive, dont une association a dénoncé le biais discriminatoire 1; ou encore le célèbre dilemme du véhicule autonome pris au piège d'un accident inévitable et devant « choisir » ses victimes 2. Vulgarisé par le dilemme du tramway, ce cas d'école utilisé depuis les années 1960 dans les cours d'éthique des universités américaines, légèrement adapté pour traiter des enjeux du véhicule autonome, consiste à interpeler un interlocuteur en lui demandant de décider de la conduite à tenir dans une situation hypothétique où un véhicule autonome, dans des circonstances de circulation inopinées, n'aurait d'autre issue que de sacrifier son passager ou d'écraser tel ou tel piéton alentour (une vieille dame, un groupe d'enfants, une jeune maman, etc.) 3.

Pour autant, au-delà de ces affirmations et interrogations générales, il reste un peu difficile, pour la plupart d'entre nous, de se figurer concrètement en quoi pourraient consister les risques éthiques du bâtiment intelligent de demain. C'est à cette question que cet article se propose de répondre.

Même s'ils se manifestent sous des formes infiniment variées, les risques éthiques liés aux données et aux algorithmes relèvent principalement de trois catégories : la violation de la vie privée, l'érosion du libre arbitre et les discriminations. Les bâtiments et infrastructures intelligents de demain sont susceptibles de tomber dans chacun de ces trois pièges.

Violation de la vie privée

Pour optimiser son fonctionnement, un bâtiment intelligent doit collecter des données sur les personnes qui s'y trouvent. Prenons par exemple une salle de réunion dans un immeuble de bureaux : pour la gérer au mieux, il faut savoir s'il y a quelqu'un dedans (pour allumer ou éteindre les lumières à bon escient), combien de personnes s'y trouvent (pour ajuster la puissance du chauffage ou de la climatisation), et qui sont ces personnes (pour leur donner accès aux services prévus dans la salle en question - se connecter au réseau wi-fi, commander des boissons, obtenir une vidéoconférence, etc.).

Comment collecter ces informations? Et quelles sont les interfaces qui permettent aux usagers du bâtiment d'interagir avec les équipements?

Pour avoir un aperçu des débats qui sont devant nous, arrêtons-nous simplement sur un cas emblématique : la coopération entre Jones Lang LaSalle, l'un des grands gestionnaires d'actifs immobiliers à l'échelle mondiale, et Hitachi, la firme japonaise spécialisée en électronique 4. Pour optimiser l'usage des espaces de bureaux, les deux partenaires ont conduit un projet pilote à Singapour consistant à placer des capteurs dans les salles de réunion, sous les bureaux ainsi que dans les badges attribués aux employés et visiteurs pour toutes sortes d'usages (entrer dans le bâtiment, pointer, payer son repas à la cantine...).

Grâce aux données collectées, les deux entreprises se proposent d'aider leurs clients à analyser l'usage effectif des locaux et des équipements, mais aussi les habitudes de travail des employés et même la manière dont ils collaborent dans l'entreprise. On peut notamment savoir combien de temps chacun est resté assis, quand il s'est levé, où il est allé, avec qui ou auprès de qui il est resté, combien de temps, etc. Le but affiché étant tout à la fois de mieux gérer l'allocation et l'aménagement des espaces et des postes de travail, de cartographier les relations in situ dans l'entreprise (comme on peut le faire pour les relations à distance via messagerie, Internet ou réseaux sociaux) et enfin de conseiller chaque employé sur l'organisation de son temps et sur son hygiène de vie.

Il va de soi que ces données permettent de savoir, par déduction et recoupement, bien d'autres choses que ce pour quoi elles sont collectées. Elles permettraient, le cas échéant, de détecter les symptômes de certaines pathologies ou bien de révéler des relations personnelles. Ce qui pose question tant aux surveillés qu'aux surveillants : avons-nous vraiment envie que la direction informatique ou la direction des ressources humaines de l'entreprise soit au courant de notre vie intime? Réciproquement, si un responsable de l'entreprise vient à disposer de données suggérant que tel employé présente tels symptômes d'une maladie grave (par exemple, des symptômes de désorientation, qui pourraient être précurseurs d'une maladie d'Alzheimer), doit-il en parler, et à qui, afin que la pathologie, dont la victime n'est peut-être même pas consciente, soit prise en charge?

Érosion du libre arbitre

Deuxième risque éthique habituellement lié aux données, aux algorithmes et/ou à l'intelligence artificielle : l'érosion du libre arbitre, la normalisation voire la manipulation des comportements. C'est un effet qui, dans le contexte du numérique et des données, résulte de deux causes.

Tout d'abord, le simple fait de se savoir surveillé, mesuré, calculé, amène chacun d'entre nous à modifier ses habitudes. C'est parfois l'objet même de la surveillance numérique que de prévenir ainsi les comportements déviants, mais peuvent aussi survenir des effets collatéraux indésirables d'augmentation du niveau de stress et d'induction d'un certain conformisme des comportements.

À cette première cause très générale s'ajoutent, le cas échéant, les boucles de rétroaction codées dans les algorithmes (ou qui seraient éventuellement développées spontanément par des intelligences artificielles par apprentissage supervisé ou non), qui les amènent à réagir différemment selon notre comportement et donc, finalement, à nous canaliser vers les comportements souhaités. Il existe d'ores et déjà un certain nombre d'exemples qui permettent de préfigurer ces phénomènes : ainsi par exemple ce jouet commercialisé en Corée du Sud, un robot en forme de tortue programmé pour se replier sur lui-même et cesser de jouer si les enfants le brutalisent 5 afin d'apprendre à ceux-ci à respecter les objets qui les entourent; ou encore, à l'occasion d'une campagne publicitaire pour une marque de bière voulant promouvoir la diversité, ce réfrigérateur-distributeur installé dans lieu public qui refusait de délivrer les boissons si l'on ne s'adressait pas à lui dans un minimum de six langues 6, obligeant les amateurs à interpeller des passants d'autres origines et à leur parler afin de les inciter à coopérer pour obtenir les boissons convoitées.

De manière plus systémique, on voit émerger des scénarios d'infrastructures exploitées à l'aide d'intelligences artificielles qui passent insensiblement de l'optimisation de l'expérience usager à la manipulation des comportements desdits usagers. Ainsi, par exemple, cette vision de l'aéroport du futur imaginée par le cabinet de conseil en innovation Teague, inventeur - entre autres - du Polaroid, de la console de jeu Xbox et de la boîte de chips Pringles : « Si l'intelligence artificielle peut être utilisée pour optimiser les processus de l'aéroport et des compagnies aériennes, elle peut aussi bien être employée pour redessiner ces processus d'une manière qui ne bénéficie pas nécessairement aux passagers, mais plutôt à des intérêts commerciaux. [...] Cette famille fatiguée avec trois enfants qui s'ennuient et qui ont faim? L'intelligence artificielle pourrait aider à faire en sorte qu'elle soit dirigée vers ce point de contrôle de sécurité qui se trouve juste à côté d'une boutique de jouets ou d'un restaurant rapide, où elle serait susceptible de faire des achats d'impulsion. » 7

Discrimination

Troisième risque éthique parmi ceux qu'engendrent les données et les algorithmes : la discrimination. Pour l'illustrer, restons un instant dans cet aéroport du futur imaginé par Teague. Il est question ici de l'articulation, aussi fluide que possible, des différentes étapes du voyage, notamment l'arrivée à l'aérogare pour prendre l'avion puis, à l'autre extrémité du voyage, le transfert des voyageurs à leur destination finale. « Si l'intelligence artificielle peut être utilisée pour optimiser le déplacement des passagers d'un mode de transport à un autre, elle pourrait aussi altérer les règles du jeu pour certains d'entre eux : [...] créer de meilleures expériences pour certains et de moins bonnes pour d'autres. [...] Les membres d'une religion particulière pourraient bénéficier d'un statut plus favorisé dans tel aéroport et se sentir beaucoup moins bienvenus quand ils arrivent dans un autre. Les passagers pourraient se retrouver bizarrement regroupés par origine ethnique dans les véhicules utilisés par l'aéroport. Les gens qui se conforment à certaines normes de genre dans leur apparence pourraient se trouver récompensés par un passage plus rapide aux postes de contrôle tandis que les autres, mal identifiés par le système, se heurteraient à une confusion engendrant des délais. »

Ce type de discrimination pourrait se produire délibérément, parce qu'un ordre de priorité a été encodé dans l'algorithme, mais aussi de manière non délibérée : par exemple si l'intelligence artificielle de reconnaissance d'images, qui analyse les visages et attitudes pour anticiper un degré de risque et orienter les passagers vers un contrôle plus ou moins sévère, a été « éduquée » via un corpus d'apprentissage comprenant majoritairement des images conformes à telle ou telle norme et se trouve ainsi moins performante lorsqu'elle rencontre des images autres.

Stratégies de contournement

Au-delà de ces risques éthiques déjà bien répertoriés, le bâtiment intelligent pose un défi supplémentaire : les stratégies de contournement que vont inévitablement développer ses utilisateurs.

On en voit déjà les prémices aujourd'hui en observant la manière dont les habitants des immeubles conformes à la norme de haute qualité environnementale détournent l'usage de certains équipements (par exemple en obstruant des bouches d'aération ou en forçant l'ouverture de stores automatisés) pour maîtriser leur confort et ne pas dépendre des règles d'optimisation du système - ruinant au passage la qualité environnementale présumée desdits immeubles.

Un article de la revue Energy Research & Social Science dresse un panorama assez édifiant des mille et une astuces mises en oeuvre par des « occupants ordinaires » pour désactiver les fonctions d'un bâtiment intelligent : « Dans un bureau éclairé par un luminaire dont l'allumage était déclenché par un capteur de mouvement, les employés ont installé un jouet mécanique en mouvement perpétuel pour empêcher la lumière de s'éteindre en leur présence car le capteur, mal placé, n'était pas assez sensible; par conséquent, les lumières restaient désormais allumées tout le temps. Dans un autre cas, les propriétaires d'une maison à énergie optimisée ont recouvert leur sol d'un épais tapis parce qu'ils le trouvaient trop froid pour leurs pieds nus, alors que cette surface était conçue pour absorber et stocker les rayons du soleil; le tapis, bien sûr, a rendu le système inefficace. Ou bien encore : dans un bâtiment abritant un laboratoire de recherche, les occupants avaient besoin d'éteindre complètement les lumières pour procéder à certaines expériences; comme il n'y avait pas d'interrupteurs visibles, les chercheurs devaient rester complètement immobiles pendant quinze minutes afin que les lumières s'éteignent automatiquement. » 8

Ces phénomènes ne sont pas isolés. On en retrouve l'expression dans bien d'autres domaines d'application du numérique. Ainsi, par exemple, du maquillage permettant de déjouer les caméras de reconnaissance faciale 9 ou encore de ce mécanisme qui balance votre téléphone comme si vous marchiez 10, afin que, tout en restant confortablement assis dans votre fauteuil, vous atteigniez les seuils de décompte de pas journaliers requis pour bénéficier de tarifs plus favorables de cotisations d'assurance maladie.

Comment ces traits de comportement pourraient-ils se traduire dans les bâtiments de demain, truffés de capteurs, de données et d'algorithmes? Revenons à notre salle de réunion du début. Cas de figure fréquent dans les entreprises, imaginons qu'il y ait davantage de demandes (de personnes qui cherchent une salle pour se réunir) que d'offres (de salles disponibles). À qui l'algorithme d'attribution des salles va-t-il donner la priorité?

Mille et une solutions sont possibles : est-ce qu'on attribue les salles selon la règle « premier arrivé, premier servi »? Ou bien en fonction des positions hiérarchiques, d'abord aux chefs, ensuite aux autres? Ou encore en fonction de quotas de droits à réservation que l'on aura préalablement attribués, par personne ou par service? Ou alors est-ce qu'on réduit forfaitairement les durées de réservation allouées à chacun, afin qu'il y ait de la place pour tous?

Quelles que soient les règles qu'il serait possible d'encoder dans l'algorithme, elles vont inévitablement engendrer des stratégies de contournement : la règle du « premier arrivé, premier servi » risque d'inciter chacun à des réservations excédentaires, juste pour le cas où, qui vont aggraver la pénurie; la règle hiérarchique va amener les plus débrouillards à faire passer leur réservation au nom de leur chef; les quotas de droits à réservation vont donner lieu à une foire d'empoigne pour décider des besoins respectifs que les uns et les autres peuvent avoir d'organiser des réunions; et la réduction forfaitaire des durées de réservation débouchera sans doute sur des conflits lorsque les arrivants de la réunion suivante constateront que la salle est encore occupée par la réunion précédente.

Somme toute, plus les bâtiments seront intelligents, plus ils inciteront les humains à développer leur propre ingéniosité afin de préserver leur liberté face à la machine, y compris la liberté de faire des bêtises et de contrevenir aux principes supposés garantir le bien commun.



  1. « Machine bias », Probublica, 23 mai 2016 (www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing).
  2. « To make us all safer, robocars will sometimes have to kill », Wired, 13 mars 2017, ( www.wired.com/2017/03/make-us-safer-robocars-will-sometimes-kill).
  3. Élisabeth Grosdhomme, « Éthique des algorithmes : attention au trompe-l'oeil », Revue de la gendarmerie nationale, no 261, juin 2018 ( https://www.gendarmerie.interieur.gouv.fr/Notre-communication2/Publications-Documentations/La-revue/Revue-261).
  4. « Taking real estate services to the next level: Hitachi digital technologies combined with JLL services to change office operations », Hitachi, décembre 2017 (https://social-innovation.hitachi/en-gb/case_studies/jll).
  5. « Robotic tortoise helps kids to learn that robot abuse is a bad thing », IEEE Spectrum, 14 mars 2018 ( https://spectrum.ieee.org/automaton/robotics/robotics-hardware/shelly-robotic-tortoise-helps-kids-learn-that-robot-abuse-is-a-bad-thing).
  6. Voir cette vidéo : www.youtube.com/watch?time_continue=4&v=SmpGg6Jydq4.
  7. « The future of flying? AI that shames you into being a better passenger », Fast Company, 24 avril 2019 (www.fastcompany.com/90333075/the-future-of-air-travel-ai-that-shames-you-into-being-a-better-passenger).
  8. « Oh behave! Survey stories and lessons learned from building occupants in high-performance buildings », Energy Research & Social Science, vol. 31, septembre 2017 (www.sciencedirect.com/science/article/pii/S2214629617301664).
  9. www.ulyces.co/news/ce-maquillage-futuriste-permet-dechapper-aux-systemes-de-reconnaissance-faciale.
  10. https://twitter.com/AsiaNews_FR/status/1128220062014304256.
http://www.constructif.fr/bibliotheque/2019-10/quand-les-batiments-sont-intelligents-les-murs-ont-des-yeux-et-des-oreilles.html?item_id=5717
© Constructif
Imprimer Envoyer par mail Réagir à l'article