ARTICLES DE VACANCES (1/5) : QUAND LA VILLE NOUS REGARDE : LES CAMÉRAS INTELLIGENTES PEUVENT-ELLES PROTÉGER SANS CONTRÔLER ?

Temps de lecture :  24 minutes
mots-clés : UMONS, villes, modèles, données, étudiantes, travaux pratiques, article, villes intelligentes
Nombre de pages « équivalent » : 7
Article rédigé avec l’aide de l’IA : écriture : oui, reportage : non

En bref : c’est l’été et nous vous proposons des articles d’étudiants… Comme chaque année. Un monde digital vu par des jeunes de 23 ans. Et c’est parfois détonnant !

Chers lecteurs,

C’est déjà le moment des vacances, mais on ne vous laisse pas tomber pour autant. Chaque année, j’ai le plaisir d’offrir à mes étudiants d’être modestement publiés sur mon blog. Il se fait que certains articles, comme celui de d’Eléa Iudica publié le 17 août 2022 s’intitulant Les dérives du Métavers dans l’architecture a été lu plus de 850 fois dans la foulée de la publication ! ils apprécient, je peux vous le garantir.

Bref, mes jeunes étudiants ont des choses à vous raconter et cet été sera riche en découvertes de leurs points de vue. Des articles rédigés par de vraies gens pour de vraies idées.
Nota : Ils ont tous utilisé l’IA, d’une manière ou d’une autre. Il est intéressant de noter que son usage a été différent pour chaque étudiante !

La présentation de ces articles est proposée par ordre alphabétique des auteurs. À la fin, je vous propose un regard critique (au sens littéral du terme). Bonne et belle journée à vous.

Texte d’Anaëlle BIENFAIT

Caméras intelligentes, pourquoi ? :

Imaginez une ville où chaque geste est scruté par des caméras « intelligentes ». Une ville où la distinction entre sécurité et contrôle devient floue. Une ville où des biais discriminatoires pourraient se glisser dans les filtres numériques, amplifiant les inégalités… Les caméras intelligentes sont-elles un progrès pour la ville, ou deviendront-elles son poison? Que ce soit contrôler les plaques de voitures, notamment dans les zones à1 faible émission, par exemple. Mais elles sont surtout présentes pour lutter contre le sentiment d’insécurité et le vandalisme. Et même si celles-ci semblent rendre de fiers services à la gestion policière de la ville, c’est aussi à travers des discours de marketing urbain qu’elles sont mises en avant. Avec la « safe » city la ville serait plus protégée2? Laisser la « protection » ou la « surveillance » de la ville et de ses citoyens dans les mains du numérique ne pourrait-il pas engendrer des effets négatifs ?

Caméras intelligentes, c’est quoi ? Ça fonctionne comment ?

Mais revenons-en au début… Les caméras intelligentes c’est quoi au juste ? Comment ça fonctionne ? Selon la loi belge3, « on entend par caméra de surveillance tout système d’observation fixe ou  mobile  qui collecte,  traite  ou  sauvegarde  des images  dans  le  but  de  prévenir, constater ou déceler les délits et les nuisances et maintenir l’ordre public ». Les caméras « classiques » sont des dispositifs de surveillance présents depuis longtemps dans nos villes. Les images qu’elles enregistrent sont envoyées vers un centre de contrôle, où un opérateur est chargé d’analyser ces images. Ce système repose donc majoritairement sur l’intervention humaine, ce qui crée des risques d’erreur considérables.

Cependant le système qui nous intéresse est celui des VSA4, « vidéo-surveillance algorithmique ». Ces caméras sont associées à des logiciels d’intelligence artificielle, qui prennent en charge l’analyse des images. Ce sont désormais ces systèmes, et non plus des humains, qui assurent le contrôle des images. Il est certain que cela représente un progrès en termes d’efficacité pour les contrôleurs. Le logiciel analyse les images, détecte et met en évidence les comportements combinant des caractéristiques suspectes (errances, mouvements brusques, courses, objets abandonnés, regroupements). En revanche, les algorithmes utilisés par ces différents logiciels sont développés par l’homme, dans le cadre d’entreprises privées, qui proposent à leur tour leurs services aux autorités publiques responsables de la surveillance des villes. Dans le cas de la région Bruxelloise, par exemple5, c’est le logiciel de la société ACIC, qui fait émerger les événements problématiques, mais ce dernier génère toutefois de nombreux faux positifs. C’est pourquoi la région a recours à un autre logiciel, BriefCam développé en Israël, qui propose un résumé et un tri des événements en fonction de critères spécifiques. De plus, ces caméras et la gestion des logiciels entraînent des coûts importants, que ce soit pour le stockage des données, leur circulation ou l’installation des caméras, sans oublier que leur efficacité reste parfois sujette à débat.

Ce sont donc des entreprises guidées par leurs propres logiques qui conçoivent les algorithmes. Cette gestion relève d’un effet de « boite noire », un système opaque dont on connaît les données d’entrée (images captées) et les résultats produits (identification d’un comportement “suspect”), mais sans connaissance des traitements intermédiaires. Les algorithmes sont ainsi à la fois protégés par la propriété intellectuelle6 de l’entreprise et rendus incompréhensibles pour le grand public.

Pasquale Frank, dans « Black box society », cité par Gavin J.D.7 , critique vivement ce système, qu’il associe à des logiques néolibérales. Il souligne combien les algorithmes sont à la fois secrets et omniprésents, enveloppés dans des discours marketing qui dissimulent de potentielles injustices sociales, tout en se réclamant d’une objectivité et d’une efficacité apparentes. Cette opacité s’infiltre aujourd’hui dans nos villes, notamment à travers l’usage croissant des caméras intelligentes. Maintenant que nous en comprenons le fonctionnement, penchons-nous sur leurs coulisses et sur les effets discriminatoires qu’elles pourraient engendrer.

Des biais cachés dans les algorithmes ?

L’essor de la vidéosurveillance algorithmique dans les espaces publics s’accompagne d’un discours sécuritaire fort, promettant une détection rapide des comportements anormaux. Mais qui détermine ces comportements suspects ? Les concepteurs des algorithmes. Et sur quoi se basent-ils ? N’y a-t-il pas un risque d’intégrer inconsciemment ou non un biais discriminatoire8 ciblant les personnes précaires ou racisées ?

Cette question, Joy Buolamwini, du MIT média lab9, se l’est déjà posée. Et ça a donné naissance à sa thèse « gender shades 10» qui a mis en évidence les biais de genre et de couleur de peau présents dans les systèmes commerciaux   de   reconnaissance faciale11. Cette recherche est née lorsqu’elle a découvert que certains logiciels ne reconnaissaient pas son visage, une femme noire, à moins qu’elle ne porte un masque blanc.

Intriguée par ce dysfonctionnement, elle a décidé d’évaluer la performance de trois systèmes de reconnaissance faciale développés par IBM, Microsoft et Face++ sur un ensemble de 1 270 images. Ces images étaient sélectionnées de manière à être équilibrées en fonction du genre et du type de peau (clair/foncé). Les résultats ont révélé d’importants écarts dans les taux de précision12. Ce décalage s’explique principalement par des bases de données d’entraînement (machine learning) surreprésentant les visages masculins à la peau claire. Ce constat, en plus de témoigner d’un biais algorithmique discriminatoire évident, soulève des préoccupations dans les domaines où ces technologies sont utilisées à des fins de surveillance. Par exemple, dans un tiers des communes bruxelloises et wallonnes14, les autorités refusent de dévoiler des informations sur les dispositifs de surveillance (emplacement, coût, mode de fonctionnement ou efficacité). Cette opacité entraîne une perte de contrôle démocratique15. Combinée aux biais discriminatoires des algorithmes, cela peut conduire à de l’injustice, en ciblant des personnes déjà marginalisées et stigmatisées par les stéréotypes sur lesquels les IA ont été entraînées.

Atteinte aux droits fondamentaux ?

De façon générale, les caméras intelligentes interrogent la frontière des droits citoyens. Tout d’abord, elles peuvent engendrer un effet dissuasif sur les comportements individuels16. Lorsque l’on sait que l’on est surveillé en permanence, notre manière d’agir peut être modifiée. Cette pression constante pourrait pousser les individus à renoncer à des droits fondamentaux, comme la liberté d’expression, de circulation, de rassemblement ou le droit de manifester. Mais avant tout, les caméras intelligentes17 soulèvent des risques importants pour le droit à l’image et le respect du RGPD18. Ces enjeux sont d’autant plus cruciaux dans l’espace public, où le droit à l’anonymat demeure fondamental. Car ces dispositifs ne se contentent pas d’observer, mais bien d’analyser, transformant la simple prise d’image en un processus intrusif pouvant générer un sentiment de surveillance généralisée renforcée par l’invisibilité du processus de traitement. Son aspect intrusif 19 fait porter de lourdes responsabilités aux individus filmés. Où vont les images ? Qui y a accès ? Sont-elles susceptibles d’être utilisées à d’autres fins que celles annoncées ? Est-il seulement possible de refuser d’être filmé et analysé ?

Et alors qu’il serait légitime d’avoir un droit de regard sur ces données, la CNIL20 rappelle que « s’il n’est généralement pas possible pour les personnes d’exercer les droits qui leur sont reconnus par le RGPD (droit d’opposition à être analysé par la caméra), ces usages ne seront licites que lorsqu’ils auront été autorisés par les pouvoirs publics, qui doivent prendre un texte (réglementaire ou législatif) pour écarter le droit d’opposition ». Cette déclaration souligne les limites actuelles en matière de garanties individuelles face à ces nouvelles formes de captation et de traitement de données. « La question dès lors21 serait de comprendre pourquoi les communes, la Région et les zones de police continuent d’investir dans cette technologie ? La réponse est sans doute avant tout politique : notre hypothèse est que faute de pouvoir s’attaquer réellement aux problèmes sociaux, les autorités doivent bien montrer qu’elles agissent pour lutter contre le sentiment d’insécurité… »

Lutter contre l’insécurité ?

Prévenir, constater, déceler… Voilà ce que la loi belge prévoit pour l’usage de caméra en milieux urbains. Mais dans quelle mesure l’enregistrement et le traitement des images par ces dispositifs parviennent-ils réellement à accomplir ces objectifs ? Dans un premier temps, la caméra doit filmer et analyser les informations, un processus qui prend du temps. Lorsqu’un problème est détecté, il convient de vérifier l’alerte afin d’éviter les faux positifs. Ce n’est qu’après cette vérification que les forces de l’ordre peuvent intervenir. Dans son rôle de prévention, la caméra intelligente semble donc surtout jouer un rôle dissuasif, mais à nouveau, dans de moindres mesures.  On observerait 22 une diminution de 2% de délits dans le périmètre d’une caméra, mais à contrario, une augmentation de 9% dans les zones voisines dépourvues de caméras. Les caméras de surveillance ne peuvent donc pas réduire la criminalité sans la déplacer ailleurs23. Par ailleurs, elles semblent plus efficaces pour prévenir les petits délits, mais, en cas de crime, il est difficile d’agir à temps pour en empêcher l’exécution24. Il convient de noter que les limites évoquées concernent surtout les dispositifs classiques de vidéosurveillance, sans nécessairement impliquer l’intelligence artificielle. Les problématiques liées à l’IA résident ailleurs : dans les atteintes potentielles à la vie privée et dans la multiplication des faux positifs25. Les faux positifs générés par les logiciels de reconnaissance faciale sont fréquents et peuvent entraîner des conséquences graves pour les personnes concernées. Ce fut le cas de Sara26, expulsée et interdite d’accès à un magasin, soupçonné à tort d’avoir volé du chocolat sur la base d’une détection erronée du logiciel Face Watch. Dans le même reportage de la BBC, à Bethnal Green, à Londres, une voiture de police équipée de caméras circule dans les rues pour repérer automatiquement les individus figurant sur la liste de surveillance. Bien que ce dispositif ait permis certaines arrestations fondées, il n’est pas exempt de dérives. Shaun Thompson en a fait les frais : arrêté à tort à la suite d’une mauvaise identification, il ne fut relâché qu’après avoir présenté ses empreintes digitales et son passeport, vingt minutes plus tard. Il déclarait à la BBC : « C’était intrusif… J’étais traité comme un coupable jusqu’à preuve du contraire ». Dans le cas de cette patrouille, on estime qu’une alerte sur quarante est une fausse identification.

Les caméras intelligentes montrent rapidement leurs limites. Serviraient-elles davantage à constater les infractions qu’à les empêcher ? Selon le sociologue Laurent Mucchielli27, la vidéosurveillance joue un rôle si marginal dans les enquêtes qu’elle en devient inefficace pour améliorer réellement la sécurité urbaine. D’après ses recherches, les images issues des caméras ne sont véritablement déterminantes que dans 3,5 % des affaires résolues28. Il insiste également sur le biais médiatique : seules les enquêtes ayant pu être élucidées grâce à la vidéosurveillance sont mises en avant, tandis que les nombreux cas où ces dispositifs n’ont eu aucun effet ne le sont que rarement. D’autant que l’efficacité de ces dispositifs repose sur un postulat : celui que les images soient exploitables : de bonnes qualités, correctement cadrées, suffisamment éclairées… et surtout, qu’elles existent encore. Dans l’affaire de Moad Touille29, un adolescent de 14 ans roué de coups par la police, où les enregistrements supposés éclairer les faits ont disparu.

Ce constat vaut aussi pour les systèmes VSA : pour que l’IA puisse jouer un rôle utile, elle doit avoir non seulement détecté l’événement, correctement traité ET sauvegardé les images en question. Et si l’on pousse la réflexion plus loin, en cas de procédure judiciaire, ces images doivent pouvoir être utilisées comme preuves. Cela suppose non seulement qu’elles aient été conservées, mais aussi qu’elles soient accessibles aux parties concernées et recevables par un tribunal. À ce stade, l’interprétation des images, qu’elles soient brutes ou accompagnées d’un rapport généré par l’IA, revient au juge. Et cette interprétation peut, elle aussi, être sujette à discussion.

Le cas de San Francisco30 témoigne de cette inefficacité des caméras à prévenir des homicides dans les zones à fortes criminalités de la ville. Certes, les caméras y étant installées, datant de 2006, n’étaient pas équipées d’un traitement algorithmique. Néanmoins, elles n’ont eu aucun impact sur la criminalité desdites zones. Aujourd’hui, les échecs rencontrés liés au visionnage par des agents de police pourraient être résolus. En revanche, bon nombre n’ont pas été utiles dans l’arrestation des criminels pour cause de leur positionnement, de leur qualité ou du fait que les crimes soient commis la nuit et donc non détectable par des caméras. De plus, ce cas pose également la question de l’adaptation des comportements face à ces caméras : déplacements de la criminalité, dissimulation du visage, discrétion des comportements …

Dès lors, une question s’impose : qu’elles soient dotées d’intelligence artificielle ou non, de reconnaissance faciale ou non, les caméras de surveillance peuvent-elles réellement répondre aux enjeux de criminalité et de sentiment d’insécurité ? Ne s’agit-il que d’une image, rassurant dans l’apparence, mais limitée dans ses effets concrets ? Est-ce réellement la solution dans laquelle des investissements publics conséquents sont justifiés au détriment d’autres leviers de préventions ?

Et le sentiment d’insécurité chez les femmes ?

Alors que le voile se lève progressivement sur l’ampleur des violences faites aux femmes, les chiffres qui émergent sont alarmants. En France, une femme sur deux a déjà subi une violence sexuelle. Et bien que 91 % de ces agressions aient lieu dans la sphère privée31 ou professionnelle par des  connaissances,  et  moins  dans l’espace public par un inconnu. La peur relevant de ce contexte, quant à elle,croit. Elle déborde des frontières du privé pour s’installer dans l’espace public à travers le sentiment d’insécurité. En 2015, un million de femmes âgées de 20 à 69 ans ont été confrontées à du harcèlement sexuel dans le cadre professionnel ou dans l’espace public. Et dans ce dernier, 61 % des femmes affirment avoir subi des actes ou des propos sexistes32. Cette insécurité structurelle, combinée au sexisme ordinaire, alimente ainsi un sentiment d’insécurité dans l’espace public.

Cette réalité fait peser un poids considérable sur les épaules des femmes. Pourtant, la lutte féministe pour le droit à la ville accessible et accueillante pour toutes et tous est bien souvent détournée, par des discours sécuritaires, médiatiques et politiques. De fait, la sécurisation de l’espace urbain se concentre fréquemment sur des quartiers déjà stigmatisés, créant une ambiguïté entre discours politiques et féministes. Comme le souligne Laura Chaumont dans une interview  accordée  à  IEB33  :

« Le harcèlement sexiste dans l’espace public est la violence au sujet de laquelle les politiques publiques peuvent le plus facilement dire “on s’en occupe”, parce que c’est dehors. Les biais racistes sont souvent là : “ce sont certaines personnes, certains quartiers”. C’est plus facile que de s’attaquer à l’énormité que sont les violences de genre en général et je trouve qu’on a tendance à mettre plus le focus sur l’espace public. »

Dans cette logique, certains quartiers sont davantage ciblés par les contrôles policiers et se verront attribuer un nombre de caméras plus important. Ce renforcement contribue à la stigmatisation de ces lieux et nourrit le sentiment d’insécurité. Dès lors, une question s’impose : l’implantation de caméras constitue-t-elle une réponse adaptée aux besoins et aux attentes des femmes ?

Selon Annabelle Hoffait, chargée de projet au sein du bureau L’architecture qui dégenre, interrogée par IEB34: « Des caméras de sécurité, des dispositifs de contrôle numérique vont paradoxalement plutôt participer à l’intensification du sentiment de contrôle des corps que subissent déjà les femmes et les minorités de genre dans l’espace public, au détriment d’un réel impact sur le sentiment de sécurité qu’on pourrait avoir dans l’espace. »

Le corps des femmes, déjà en permanence scruté, jugé, sexualisé dans l’espace public, se retrouve sous l’œil de la caméra, intensifiant la pression sociale qui pèse sur elles. Cela nous fait revenir au droit à l’image et aux données : que deviennent ces images ? Qui y a accès ?

La surveillance, intelligente ou non, implique une surveillance constante dans l’espace public et de manière indirecte, les femmes qui le traversent. En 2006 35, une affaire révélait comment une caméra publique avait été détournée par des agents pour filmer l’intimité d’une femme chez elle, à son insu. Les images avaient ensuite été projetées sur grand écran dans la salle de surveillance. Aujourd’hui, l’intelligence artificielle pourrait limiter ce type de dérives, en supprimant le facteur humain dans le traitement des images. Mais cela ne garantit pas l’absence d’autres formes d’abus.

Ailleurs dans le monde, des exemples rappellent à quel point l’image peut devenir un outil de contrôle. En Iran36, depuis 2023, des caméras intelligentes sont utilisées pour repérer les femmes ne portant pas le voile. Ces dernières sont ensuite arrêtées ou sanctionnées, car le port du hijab est imposé par la loi. En Corée du Sud37 le phénomène des molka prend une ampleur alarmante. Des mini-caméras sont cachées dans des lieux publics pour enregistrer des vidéos à des fins pornographiques. Et le reste du monde est aussi confronté à ce genre de problématique comme le Royaume- Unis 38.

Il est vrai que ces cas n’impliquent pas toujours des dispositifs publics de surveillance. Mais ils témoignent tous d’un même glissement : celui où l’image devient un vecteur de domination, un outil pour contrôler les corps, notamment ceux des femmes. Que se passerait-il si les caméras publiques étaient, elles aussi, détournées ? L’idée peut sembler relever de la paranoïa et pourtant, les précédents de 2006 prouvent le contraire.

D’autant que de nombreuses alternatives existent39 pour lutter contre le sentiment d’insécurité. De l’éducation, à la sensibilisation, à l’auto-défense en passant par l’application. En Inde, l’application SafetiPin40 propose un outil de cartographie participative qui aide les femmes à sécuriser leurs déplacements. Elle combine données publiques et contributions des utilisatrices pour évaluer les rues selon des critères comme l’éclairage, la densité de passage, la visibilité, la mixité ou encore l’accessibilité aux transports. Elle permet également de partager son itinéraire avec une personne de confiance. Plus près de chez nous, des démarches sociales prennent forme. L’ASBL Garance41, par exemple, organise des marches exploratoires dans les quartiers, invitant les femmes et les hommes à redécouvrir leur environnement en partageant leur ressenti. Ces parcours permettent de recontextualiser les malaises ressentis dans certains lieux et de penser des aménagements plus adaptés. C’est aussi la configuration même des espaces urbains qu’il faut repenser. De l’éclairage public, des espaces ouverts, propres, accessibles et fréquentés favorisent un sentiment de sécurité. Miser sur la mixité fonctionnelle dans les projets urbains, mêler logements, commerces, services, lieux culturels, permet à un quartier de rester vivant à différents moments de la journée. Une rue animée, habitée par une diversité de personnes, rassure bien davantage qu’un espace désert et silencieux 42. Il s’agit là d’une forme de contrôle social naturel, fondée non sur la surveillance technologique, mais sur la présence humaine.

Rendre les espaces accessibles à toutes et tous contribue également à réduire ce sentiment de malaise. Cela passe par des trottoirs suffisamment larges, adaptés aux personnes à mobilité réduite, aux poussettes, et dégagés des obstacles, comme les poubelles. Une ville pensée pour tous les corps, dans toute leur diversité, participe à un climat de confiance et de confort dans l’espace public.

Conclusion

À la question : les caméras intelligentes peuvent-elles protéger sans contrôler ? La réponse semble être plus complexe qu’il n’y paraît. En réalité, elles ne protègent ni ne contrôlent véritablement.

L’efficacité sécuritaire des caméras intelligentes demeure très limitée. Elles ne permettent ni de prévenir les crimes ni d’assurer toujours leur résolution. Leur utilité première reste la gestion des images, facilitée par l’intelligence artificielle, qui permet d’assister les forces de l’ordre dans un travail de tri et d’analyse, bien évidemment, impossible à réaliser humainement à grande échelle. En d’autres termes, elles servent avant toute chose à optimiser le travail de contrôle, et non à améliorer la sécurité. Croire l’inverse serait illusoire. D’autant que leur nature première, à savoir la surveillance, reste elle-même difficilement défendable face aux nombreuses limites qu’elle présente.

En matière de contrôle, ce ne sont ni les caméras ni les intelligences artificielles qui portent une intention discriminatoire. Ce sont les implications humaines, intégrées, dès la conception des algorithmes ou dans l’utilisation des images produites. Ainsi, les dérives des caméras, qu’elles ciblent des femmes, des minorités ou des personnes précaires, proviennent du regard social qui programme et utilise les données, et non des outils eux-mêmes.

Mais si l’on parle de contrôle, il faut aussi évoquer celui qui s’exerce sur les droits fondamentaux : la captation d’images sans consentement constitue une atteinte au droit à l’image et à la vie privée. Elle est là, la forme de contrôle, plus insidieuse. Qui ne relève plus de l’intelligence artificielle, mais bien de la caméra en tant qu’objet de surveillance.

En définitive, si les caméras intelligentes peuvent se révéler utiles dans certains cas très ciblés, comme les infractions routières ou des petits délits, elles sont loin de constituer une réponse aux enjeux sociaux profonds. Le technosolutionnisme ne règlera pas des problèmes sociaux si profondément ancré dans notre société. Ces problématiques requièrent des solutions sociales, construites sur le dialogue, l’inclusion et la justice, bien plus que sur la technique.

Enfin, relativisons les choses … L’avenir Orwellien semble encore bien loin non ?

Cette discrimination algorithmique, Randal Reid en a fait les frais13. En novembre 2022, le jeune homme a été arrêté à tort en raison d’une erreur d’identification par le système de reconnaissance faciale Clearview. Résultat : 6 jours de détention pour un vol de sac de luxe dans un état où il n’avait jamais mis les pieds.

Cela nous ramène aux caméras intelligentes dispersées dans nos villes. Le principal problème réside dans le manque de transparence entourant leur fonctionnement. Cela empêche tout débat éclairé sur leurs effets réels et leur nécessité.

Analyse critique

La question des caméras est un sujet lancinant dans la politique des villes depuis de nombreuses années. Nous relations ces questions dans l’article Une stratégie des données pour sécuriser la ville de Charleroi ( 23 janvier 2024). Nous relations l’importance du contrôle des acteurs et la manière de gérer ces caméras pour que le contrôle citoyen soit constant. Que nous raconte Anaëlle en plus ? Un regard féminin sur ce contrôle ! que la mise ne place de caméras deviennent un outil de contrôle des femmes peut paraître saugrenu, l’ensemble des hommes s’imaginant que les caméras protègent les femmes des agressions en ville. Mais le vécu est différent et le ressentiment également…. Car la plupart du temps, ce sont des hommes qui contrôlent les caméras. Mais qui contrôle celui qui contrôle ? Anaëlle nous offre une belle vision des biais et des exemples dans le monde des usages des caméras qui ne sont pas vraiment au bénéfice des femmes confirmant que les caméras, ça plait à tout le monde (ou presque), mais est-ce que le jeu en vaut vraiment la chandelle ? Peut-être pas, et pourtant cela coûte une fortune !

En complément, la bibliographie :

Merci pour le suivi de notre blog-à-idées ou à réflexions, c’est toujours agréable d’être lu et vous êtes de plus en plus nombreux (+ de 1 000 par mois en, moyenne). N’hésitez pas à commenter, c’est aussi une place de débats. Et surtout, merci de partager si vous soutenez nos réflexions ou recherches.

Pascal SIMOENS Ph.D, Architecte et urbaniste, data Scientist, expert Smart Cities. J’ai commencé ma vie en construisant des villes en Lego, j’en ai fait mon métier. Geek invétéré, aujourd’hui je joins mes passions du numérique et de la ville au travers d’une expertise smart Cities et smart-buildings en travaillant en bureau d’étude (Poly-Tech Engineering) et j’enseigne cette même expertise à l’UMONS et l’ULB. Complémentairement, je suis membre du bureau et trésorier du Conseil francophone et germanophone de l’ordre des architectes, baron au sein du Conseil national de l’Ordre des architectes.

This post is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License.