Société

L’Âge du capitalisme de surveillance de Shoshana Zuboff

Publié le . Publié dans SOCIETE

age1

 

Rien n’est gra­tuit en ce monde. On devrait s’étonner de la naï­veté des inter­nau­tes qui croient encore en la gra­tuité des ser­vi­ces rendus sur le réseau, comme s’il n’y avait rien à payer pour écouter de la musi­que, voir des films, obte­nir des ren­sei­gne­ments médi­caux, trou­ver des conseils de jar­di­nage, etc. Qu’y a-t-il der­rière cette appa­rente gra­tuité ?

Peu de gens connais­sent l’orga­ni­sa­tion économique des sites web car les gran­des socié­tés du numéri­que se gar­dent bien de four­nir des informa­tions sur leurs véri­ta­bles acti­vi­tés. Derrière l’écran lumi­neux qui verse géné­reu­se­ment des flots d’infor­ma­tions, il y a la face cachée et même assez sombre du marché numé­ri­que. Les véri­ta­bles clients de l’inter­net ne sont pas les uti­li­sa­teurs ordinaires du réseau, mais les usagers qui achè­tent d’autres ser­vi­ces.

Lesquels ? Ce sont les pro­duits trans­for­més d’une matière pre­mière four­nie gra­tui­te­ment et à leur insu par les uti­li­sa­teurs, à savoir leurs données per­son­nel­les. Google, Facebook, Amazon et Cie se sont spécia­li­sées dans l’extrac­tion des « data » et ont fait for­tune grâce à leur exploi­ta­tion. La commu­ni­ca­tion des don­nées per­son­nel­les est la nou­velle dîme par laquelle les inter­nau­tes finan­cent sans le savoir la pseudo-gratuité des ser­vi­ces.

 

Shoshaa

 

Shoshana Zuboff, spé­cia­liste de psy­cho­lo­gie sociale, ana­lyse dans L’Âge du capi­ta­lisme de sur­veillance la jeune his­toire de cette nouvelle indus­trie flo­ris­sante et révèle les coups four­rés, les transgressions de la loi, tous les crimes contre la démo­cra­tie qui ont permis ce capi­ta­lisme de sur­veillance. Si son style est un peu lourd, encom­bré par le jargon des scien­ces socia­les, si ses expli­ca­tions sont un peu lon­gues et répé­ti­ti­ves (l’ouvrage fait 850 pages !), si ses ana­ly­ses poli­ti­ques et phi­lo­so­phi­ques man­quent d’ampleur, il n’en demeure pas moins que son enquête, qui suit pas à pas l’évolution des gran­des sociétés de l’Internet, nous livre une docu­men­ta­tion consi­dé­ra­ble (les notes occu­pent 100 pages). Son mérite est d’avoir obtenu des renseigne­ments essen­tiels sur des pra­ti­ques soi­gneu­se­ment occultées par le bien com­mode secret indus­triel.

L’ouvrage est divisé en trois par­ties cor­res­pon­dant aux trois étapes de cette nou­velle indus­trie : 1. L’extrac­tion des don­nées per­son­nel­les ; 2. Leur exploi­ta­tion pour conce­voir des pré­dic­tions de com­por­te­ments ; 3. La cons­truc­tion d’un pou­voir ins­tru­men­ta­li­sant.

 

1. L’extraction des données personnelles 

Commençons par le projet de l’Aware Home qui visait à créer un réseau de cap­teurs sur tous les objets d’une maison et ses habi­tants, en cir­cuit fermé, pour amé­lio­rer le confort d’un chez-soi. En 2018, Google acquiert les dif­fé­ren­tes socié­tés du projet et télé­charge toutes les don­nées sur ses ser­veurs, rom­pant ainsi le contrat de confi­den­tia­lité passé avec les uti­li­sa­teurs. Les don­nées per­son­nel­les font alors l’objet d’un nou­veau marché car elles vont per­met­tre d’élaborer des don­nées comportementales pré­dic­ti­ves. L’extrac­tion des don­nées per­son­nel­les a com­mencé avec le lan­ce­ment des moteurs de recher­che dont le plus impor­tant est Google. Au lieu d’effa­cer au fur et à mesure les requê­tes et les his­to­ri­ques de navi­ga­tion, Google les conserve pour les ana­ly­ser et les trans­for­mer en de nou­vel­les don­nées. Déjà, en 2004, Gmail, lancé par Google, explo­rait la cor­res­pon­dance privée de ses uti­li­sa­teurs pour leur envoyer de la publi­cité ciblée. En 2007, Facebook per­met­tait à ses annon­ceurs de suivre les uti­li­sa­teurs sur Internet et de divul­guer leurs achats à leur réseau per­son­nel sans auto­ri­sa­tion. Devant de tels viols de la vie privée, des uti­li­sa­teurs ont déposé plainte. La cour de jus­tice de l’Union Européenne a alors pro­mul­gué un droit à l’oubli en 2014, mais cela n’empê­cha pas Google de pour­sui­vre son pillage des don­nées person­nel­les par d’autres voies.

Ses ingé­nieurs ont bien vu que les rési­dus des inte­rac­tions avec les utilisa­teurs (nombre de recher­ches, tour­nure de la requête, ortho­gra­phe des mots, ponc­tua­tion, temps passé, loca­li­sa­tion de l’uti­li­sa­teur, etc.) valaient de l’or si on savait bien les exploi­ter. Cette énergie dépen­sée par les uti­li­sa­teurs est un tra­vail récu­péré par Google, mais un tra­vail non rému­néré, car il n’y a aucun contrat. Les uti­li­sa­teurs sont des sources gra­tui­tes d’appro­vi­sion­ne­ment de matière pre­mière.

Par l’ana­lyse des don­nées, on a d’abord pu affi­ner le ciblage de la publicité qui n’est plus liée aux mots-clés d’une requête ; elle devient plus « per­son­nelle », liée au savoir que l’on a pu recons­ti­tuer sur chaque uti­li­sa­teur. Google a pu ainsi aug­men­ter le prix de ses publi­ci­tés en garan­tis­sant à l’annon­ceur une plus grande pré­ci­sion dans le ciblage. Le ser­vice rendu aux uti­li­sa­teurs du moteur de recher­che devient secondaire ; ce qui compte, c’est de déchif­frer le profil de chacun pour faire cor­res­pon­dre les publi­ci­tés à ses cen­tres d’inté­rêt, les­quels sont déduits des traces de son com­por­te­ment face à son écran. La visée obte­nue est moins aléa­toire, plus sûre, et donc, vaut plus cher.

Comme lors de l’impé­ria­lisme colo­nia­liste, le capi­ta­lisme a su pro­fi­ter d’un vide juri­di­que sur un nouvel espace trans­fron­ta­lier. Profitant de l’effet de sur­prise, le capi­ta­lisme numé­ri­que prend de court les États qui réa­gis­sent tard et mala­droi­te­ment ; il invo­que la liberté d’inno­ver contre les régle­men­ta­tions contrai­gnan­tes, et gagne ainsi de consi­dé­ra­bles marges de manœu­vre pour exploi­ter ses affai­res. Constituées en groupe de pres­sion (lobby), les socié­tés numé­ri­ques font passer des lois en leur faveur. Ainsi, en 1996, une loi est adop­tée au Congrès amé­ri­cain qui pro­tège les sites de toute res­pon­sa­bi­lité (sec­tion 230 du Communications Decency Act) : « Aucun four­nis­seur, aucun utilisateur d’un ser­vice infor­ma­ti­que inte­rac­tif ne sera traité comme l’éditeur ou l’émetteur d’une infor­ma­tion livrée par un autre four­nis­seur de contenu infor­ma­tif. » On ne pourra pour­sui­vre en jus­tice une plateforme en ligne pour le contenu des infor­ma­tions qu’elle affi­che.

Pour obte­nir encore plus de don­nées, Google n’a pas hésité à favo­ri­ser des fabri­cants de télé­pho­nes mobi­les, comme les appa­reils Android, afin d’y intro­duire des appli­ca­tions à son ser­vice. La fonc­tion de télé­phone recou­vre en fait une fonc­tion d’appro­vi­sion­ne­ment des don­nées personnel­les. Malgré le sys­tème d’auto­ri­sa­tions pré­senté à l’uti­li­sa­teur pour sélec­tion­ner la com­mu­ni­ca­tion de ses don­nées sur son télé­phone, en réa­lité, Android donne tout à Google. Des appli­ca­tions appa­rem­ment inno­cen­tes comme la météo, les lampes de poche, le covoi­tu­rage, etc., contien­nent des pro­gram­mes de tra­çage. Par exem­ple, le télé­phone émet un son imper­cep­ti­ble à l’oreille humaine qui permet de détec­ter sa pré­sence dans tel ou tel immeu­ble doté de cap­teurs. Même si le téléphone est éteint, la géo­lo­ca­li­sa­tion est main­te­nue : « Les télé­pho­nes Android recueillent depuis le début 2017 des infor­ma­tions en trian­gu­lant l’antenne la plus proche, et ceci même si la géo­lo­ca­li­sa­tion est éteinte, que les applis sont toutes éteintes et qu’il n’y a pas de carte SIM dans le télé­phone. »

Une autre tech­ni­que d’extrac­tion de don­nées per­son­nel­les consiste à intro­duire un « assis­tant numé­ri­que » dans un logi­ciel, comme Microsoft l’a fait avec Cortana : sous pré­texte d’aider l’uti­li­sa­teur dans ses difficultés tech­ni­ques, on insère un pro­gramme espion qui permet de com­plé­ter son profil. Cependant, com­ment faire lors­que l’uti­li­sa­teur change d’appa­reil ? Comment conti­nuer à le suivre lorsqu’on a perdu l’iden­ti­fiant de sa machine et que les coo­kies envoyés ne répon­dent plus ? Une société amé­ri­caine, Verizon, a mis au point un numéro de suivi dis­si­mulé et inef­fa­ça­ble pour chaque uti­li­sa­teur, un iden­ti­fiant incontour­na­ble par la navi­ga­tion privée ou d’autres outils de confidentialité. Le nœud une fois fermé, l’uti­li­sa­teur ne peut plus s’en défaire. Plus aucune pro­cé­dure de retrait ne fonc­tionne.

La pra­ti­que du selfie est aussi une source extra­or­di­naire. En explo­rant tous les visa­ges pho­to­gra­phiés et mis en ligne sur Facebook (350 millions de photos par jour !), cette entre­prise a mis au point un logi­ciel de reconnais­sance faciale qui appro­che les 100% de réus­site. En analysant les poses, le regard, l’habille­ment, la coif­fure, les pos­tu­res, etc., on peut pro­fi­ler les indi­vi­dus et pré­dire leurs com­por­te­ments. Après le visage, la voix : les répon­deurs vocaux com­plexes, qui pro­po­sent une sorte de « conver­sa­tion » avec le client, enre­gis­trent des paro­les facilement ana­ly­sa­bles par la suite. « Il fut un temps où vous explo­riez grâce à Google. Maintenant, c’est vous que Google explore. »

Le poste de télé­vi­sion peut aussi nous sur­veiller, comme la Smart TV de Samsung qui enre­gis­tre tout ce qui se dit à proxi­mité du poste. Les jouets comme les pou­pées inte­rac­ti­ves ou les robots gla­nent des infor­ma­tions auprès des enfants en leur deman­dant leur adresse par exemple. Amazon a obtenu de cer­tai­nes entre­pri­ses de BTP l’ins­tal­la­tion dans les pla­fonds des immeu­bles en cons­truc­tion d’encein­tes connectées, des ser­ru­res, des ther­mo­stats, des inter­rup­teurs qui transmet­tent des don­nées per­son­nel­les. La même tech­ni­que est uti­li­sée dans les entre­pri­ses pour espion­ner le per­son­nel.

Lorsque de telles pra­ti­ques sont révé­lées, la stra­té­gie réac­tive des sociétés numé­ri­ques est tou­jours décli­née en quatre étapes : incur­sion, accou­tu­mance, adap­ta­tion, redi­rec­tion.

— 1. L’incur­sion consiste à s’intro­duire par­tout où c’est pos­si­ble pour extraire des don­nées nou­vel­les. Par exem­ple, l’opé­ra­tion Street View de Google Maps a permis, en envoyant cir­cu­ler des voi­tu­res équipées de cap­teurs, de col­lec­ter secrè­te­ment des don­nées personnelles depuis les réseaux privés Wifi. Ainsi, des mots de passe, des noms, des numé­ros de télé­phone, des infor­ma­tions ban­cai­res, des e-mails, des infor­ma­tions médi­ca­les, des photos, etc. étaient glanés à l’insu des rive­rains.


— 2. L’accou­tu­mance vise à vain­cre la résis­tance que ne manque pas de sus­ci­ter la révé­la­tion des incur­sions. On gagne du temps grâce aux ser­vi­ces d’une armée d’avo­cats dont le tra­vail consiste à faire trai­ner la com­mu­ni­ca­tion de docu­ments à la jus­tice, à mul­ti­plier les manœu­vres dila­toi­res, à exploi­ter les moin­dres failles de la loi, puis, en der­nier recours, à passer un accord pour payer une amende réduite. Pendant ce temps, on déve­loppe le site incri­miné pour accou­tu­mer les uti­li­sa­teurs à s’en servir, au point qu’il leur paraît indis­pen­sa­ble.


— 3. L’adap­ta­tion consiste à faire sem­blant de reconnaî­tre ses torts, à faire amende hono­ra­ble, à pro­met­tre des remè­des, à dépla­cer quel­ques cadres dési­gnés comme res­pon­sa­bles de l’erreur, à faire quel­ques conces­sions aux déci­sions judi­ciai­res (comme le flou­tage des visa­ges sur les photos de rues), mais sans renon­cer à la quête de don­nées.


— 4. Enfin, la redi­rec­tion permet de repren­dre l’incur­sion en pro­po­sant ce qui appa­raî­tra comme un nou­veau ser­vice, par exem­ple en fai­sant passer Google Maps pour une entre­prise de car­to­gra­phie du monde avec tous ses milieux natu­rels (sen­tiers de ran­don­née, étangs, parcs) et les ser­vi­ces utiles (lignes de ferry, auto­rou­tes, etc.). En 2011, Google fran­chit la fron­tière entre l’exté­rieur et l’inté­rieur en géo­lo­ca­li­sa­tion les gens à l’inté­rieur des aéro­ports, cen­tres com­mer­ciaux, hôtels, restaurants. On peut alors vendre des visi­tes vir­tuel­les qui ache­mi­nent les clients vers tel ou tel lieu de consom­ma­tion.

 

2. Leur exploitation pour concevoir des prédictions de comportements 

Que fait-on de toutes ces don­nées ? Éric Schmidt, un cadre de Google déclara à Davos qu’Internet allait dis­pa­raî­tre, non au sens d’être anéanti, mais au sens où le réseau allait se fondre com­plè­te­ment dans le paysage quo­ti­dien grâce aux objets connec­tés. Des archi­tec­tu­res informa­ti­ques vont être implan­tées par­tout dans le monde réel. Cette inven­tion pro­vient d’une tech­ni­que de l’éthologie : la télé­mé­trie consiste à poser un émetteur minia­ture d’un signal radio sur un animal pour le suivre à dis­tance. Appliquée aux hommes déten­teurs d’un télé­phone mobile, cette tech­ni­que permet de suivre les migra­tions de trou­peaux humains. La mise sur le marché d’objets connec­tés permet de mul­ti­plier les cap­teurs, l’essen­tiel ensuite étant de struc­tu­rer les don­nées de façon à pou­voir les exploi­ter.

Par exem­ple, les com­pa­gnies d’assu­rance atten­dent des don­nées très pré­ci­ses sur la conduite au volant de leurs assu­rés, de façon à contrô­ler leur com­por­te­ment en temps réel, en allant même jusqu’à blo­quer le démar­rage du véhi­cule si néces­saire. On pourra ainsi punir le conducteur en aug­men­tant ses primes, ou le récom­pen­ser avec des bons points. Même chose pour les assu­ran­ces médi­ca­les qui pour­ront contrô­ler le res­pect d’un régime ali­men­taire ou d’un trai­te­ment médi­cal par les assu­rés. Les assu­reurs ne se conten­tent pas des contrats signés par les assu­rés car les contrats sup­po­sent de leur faire confiance, ce qui ne donne aucune cer­ti­tude. Les assu­reurs veu­lent éliminer la part de risque inhé­rente à leur acti­vité. Aussi récla­ment-ils des pro­gram­mes qui déci­de­raient auto­ma­ti­que­ment de sanc­tion­ner les mau­vais conduc­teurs, avant toute perte pour eux. Ils ins­tau­rent la notion de « décontrat », non pas au sens d’annu­la­tion de contrat, mais au sens de sup­pres­sion des rela­tions contrac­tuel­les et de leur rem­pla­ce­ment par l’exé­cu­tion unilatérale de « déci­sions » auto­ma­ti­ques.

La ges­tion des flux auto­mo­bi­les démon­tre com­ment on arrive déjà à orien­ter les com­por­te­ments par des « déci­sions » auto­ma­ti­ques (ralentisse­ments, fil­tra­ges, dévia­tions, etc.). La ges­tion auto­ma­ti­sée du parc de sta­tion­ne­ment d’une ville permet de faire tour­ner les places, non pour faci­li­ter le ser­vice mais pour obte­nir le meilleur ren­de­ment pour la société ges­tion­naire. Elle peut aussi pous­ser les auto­mo­bi­lis­tes à « préfé­rer » le ser­vice d’un véhi­cule Uber, plutôt que d’atten­dre le passage d’un bus. Toutes ces tech­ni­ques d’orien­ta­tion des comportements ont été ren­dues pos­si­bles par la maî­trise en temps réel de mul­ti­ples don­nées géo­lo­ca­li­sées.

Les objets connec­tés intro­duits dans les mai­sons, comme les thermostats ou les aspi­ra­teurs robots, élargissent la col­lecte à l’inté­rieur même des mai­sons. Les aspi­ra­teurs per­met­tent de car­to­gra­phier avec pré­ci­sion toutes les pièces, et si l’ache­teur refuse de livrer ses don­nées, il est privé de la plu­part des fonc­tion­na­li­tés de l’appa­reil. Les mate­las connec­tés ana­ly­sent votre som­meil : rythme car­dia­que, res­pi­ra­tion, horaire et durée du som­meil, posi­tions du corps, etc. Reliés au téléphone, ils déclen­chent des appli­ca­tions pour le sport, le régime ali­men­taire. C’est tout le corps qui est connecté.

Certains se conso­lent en se disant que toutes ces don­nées mélan­gées four­nis­sent des sta­tis­ti­ques ano­ny­mes, ce qui ne remet­trait pas en cause leur vie privée, mais c’est oublier qu’il suffit « de trois petits bouts de don­nées extrai­tes des regis­tres publics – date de nais­sance, code postal et sexe – pour désa­no­ny­mer des méta­don­nées avec une « trou­blante faci­lité », par des tech­ni­ques de ré-iden­ti­fi­ca­tion. » Grâce à des pro­fils, on peut agir non pas sur des ensem­bles à partir de pré­dic­tions statistiques, mais véri­ta­ble­ment sur des per­son­nes.

On en arrive main­te­nant à explo­rer les émotions et des aspects pro­fonds de la per­sonne, grâce à des modè­les psy­cho­lo­gi­ques de per­son­na­lité. La col­lecte a com­mencé avec des appli­ca­tions sur Facebook per­met­tant à l’uti­li­sa­teur d’effec­tuer des tests psy­cho­mé­tri­ques. Ce qui est pré­senté comme un aima­ble jeu avec soi-même a permis de dres­ser des pro­fils de réfé­rence pour l’ana­lyse de gran­des popu­la­tions. En croi­sant les données de tests de per­son­na­lité et les réseaux d’ « amitié » de Facebook, on a pu res­ti­tuer entre 50 et 87 mil­lions de pro­fils psychologiques sur la popu­la­tion amé­ri­caine.

Cette pre­mière expé­rience a ins­piré ensuite le cabi­net Cambridge Analytica pour mener une atta­que de micro-ciblage com­por­te­men­tal à des fins poli­ti­ques. Les modè­les se sont affi­nés dans un intense aller et retour entre pro­fils et ana­lyse des don­nées. Ainsi, pour évaluer un compor­te­ment, il est pos­si­ble d’ana­ly­ser les échanges de mes­sa­ges, en fai­sant abs­trac­tion de leurs conte­nus, car ce qui est révé­la­teur, c’est plus le « com­ment » que le « quoi » : la lon­gueur et la com­plexité des phrases plus que les mots, le par­tage ou le refus de par­tage d’images plus que les images elles-mêmes, la façon de donner rendez-vous plus que le rendez-vous, etc. Ainsi les uti­li­sa­teurs se livrent-ils com­plè­te­ment sans le savoir. Cambridge Analytica pos­sède entre 4000 et 5000 points de don­nées sur chaque amé­ri­cain adulte. Il ainsi pos­si­ble de repé­rer à l’avance des indi­vi­dus sus­cep­ti­bles de chan­ger de marque de vête­ment ou d’opi­nion poli­ti­que. De telles pré­dic­tions pous­sent les publi­ci­tai­res qui en sont infor­més à envoyer des mes­sa­ges agres­sifs pour rete­nir le client ou pour le capter.

En 2015, une petite société (Realeyes) a mis au point une tech­no­lo­gie de lec­ture des émotions d’un indi­vidu qui regarde un pro­gramme vidéo afin d’amé­lio­rer l’effi­ca­cité des publi­ci­tés. On arrive donc à déce­ler des mani­fes­ta­tions de l’incons­cient psy­chi­que. Plus les gens sont émus, plus ils dépen­sent. S’ouvre alors un nou­veau domaine, « l’infor­ma­ti­que affective », déve­lop­pée par Rosalind Picard. Il s’agit de res­ti­tuer les émotions cons­cien­tes et incons­cien­tes sous la forme d’un com­por­te­ment coda­ble et cal­cu­la­ble. La fina­lité était au départ, comme tou­jours, bienveillante : aider un étudiant à pré­pa­rer un entre­tien d’embau­che, aider les enfants autis­tes à déve­lop­per leurs apti­tu­des, former les joueurs pour qu’ils contrô­lent l’expres­sion de leurs émotions, etc. Au bout de trois ans, R. Picard fut remer­ciée et le projet fut entiè­re­ment réorienté vers la publi­cité ciblée et « per­son­na­li­sée ».

 

3. La construction d’un pouvoir instrumentalisant

Après la col­lecte des don­nées, puis leur trans­for­ma­tion en pré­dic­tions de com­por­te­ments, il reste à agir sur l’uti­li­sa­teur. Comment ? En recou­rant à des res­sorts bien connus de la psy­cho­lo­gie com­por­te­men­tale. Par exem­ple, pour inci­ter les étudiant à manger des fruits de pré­fé­rence à des pâtis­se­ries, le res­pon­sa­ble d’un resto U pré­sen­tera les fruits devant les pâtis­se­ries. On peut aussi pous­ser à une déci­sion en ren­dant difficiles ou impos­si­bles les autres choix alter­na­tifs. Le mimé­tisme est également un res­sort très puis­sant. En 2012, aux États-Unis, pour pousser des électeurs à aller voter, on a mani­pulé 61 mil­lions d’utilisateurs de Facebook : à côté d’un mes­sage encou­ra­geant le vote, était dis­posé un bouton « j’ai voté », avec un comp­teur du nombre d’utilisa­teurs qui l’avaient cliqué ; appa­rais­saient aussi des photos d’amis qui avaient déclaré avoir voté. On obtint ainsi 340000 votants supplémen­tai­res. Plusieurs expé­rien­ces de ce type ont été menées avec des mes­sa­ges subli­mi­naux.

Une des expé­rien­ces les plus étonnantes eut lieu en 2016 avec le jeu Pokémon. Il s’agit d’une chasse au trésor vir­tuelle dans le monde réel. Une appli sur télé­phone arti­cu­lée avec le GPS et la caméra permet de chas­ser des créa­tu­res vir­tuel­les, les Pokémon. Celles-ci appa­rais­sent sur l’écran et leur cap­ture est récom­pen­sée par des points. L’objec­tif est de cap­tu­rer la série des 151 Pokémon. On a alors vu de véri­ta­bles hordes de chas­seurs enva­hir des rues, des jar­dins privés, des monuments. L’objec­tif pour les clients (pas pour les joueurs) était double : extraire des don­nées nou­vel­les pour la car­to­gra­phie de lieux exté­rieurs et inté­rieurs, publics et privés, et amener un flux de clients vers des piz­ze­rias, des drug­sto­res, des maga­sins dont les patrons avaient acheté des parts de visi­teurs. Le jeu n’était qu’un leurre habile pour former un trou­peau humain mal­léa­ble, l’igno­rance de l’uti­li­sa­teur étant la condi­tion pre­mière de réus­site de cette entre­prise.

S. Zuboff consi­dère que le capi­ta­lisme de sur­veillance met en place un pou­voir « ins­tru­men­ta­rien », à savoir « l’ins­tru­men­ta­tion et l’instrumentali­sa­tion du com­por­te­ment à des fins de modi­fi­ca­tion, de prédic­tion, de moné­ti­sa­tion et de contrôle. » Peut-on dire qu’il s’agit d’un nou­veau tota­li­ta­risme ? Les capi­ta­lis­tes de sur­veillance ne cher­chent pas à éliminer des grou­pes eth­ni­ques, ni à réfor­mer l’âme d’un peuple, alors que le tota­li­ta­risme nazi ou sta­li­nien est d’abord poli­ti­que ; il use de la vio­lence et cher­che à trans­for­mer les inten­tions des indi­vi­dus. Le pou­voir ins­tru­men­ta­rien est avant tout un projet com­mer­cial, indif­fé­rent à ce que pen­sent les hommes, et il n’use pas de vio­lence phy­si­que.

Selon S. Zuboff, son ins­pi­ra­tion vient essen­tiel­le­ment de la théo­rie compor­te­men­ta­liste de B. Skinner. Celui-ci a d’abord étudié le comportement animal (sur des pigeons, des rats) pour mettre au point des pro­cé­dés per­met­tant de chan­ger les com­por­te­ments et de cons­truire des com­por­te­ments arti­fi­ciels. Puis, il a trans­posé ses recher­ches sur l’homme en par­tant du prin­cipe (posé par Watson en 1913) qu’il n’y a pas de dif­fé­rence fon­da­men­tale entre l’homme et l’animal. L’être humain doit être étudié ni plus ni moins comme un orga­nisme. Sa liberté n’est qu’un leurre. Elle n’est « que l’igno­rance qui attend son conqué­rant ». Skinner prône un beha­vio­risme radi­cal, c’est-à-dire qui doit être l’étude d’une action dénuée de toute attri­bu­tion sub­jec­tive. Tout com­por­te­ment peut être réduit à un schéma met­tant en évidence des rela­tions cau­sa­les entre l’envi­ron­ne­ment et le com­por­te­ment. Grâce à cer­tai­nes technologies, on pour­rait pré­dire et mode­ler avec effi­ca­cité le comportement humain, comme la phy­si­que et la bio­lo­gie ont pu chan­ger le monde.

Pour les beha­vio­ris­tes, la démo­cra­tie ne sau­rait cons­ti­tuer une solu­tion, car elle ne fait que per­pé­tuer l’illu­sion de la liberté. La bonne solu­tion est une tech­ni­que qui dépasse l’usage de la force et qui rejette le besoin de domi­ner l’âme humaine. Il faut déve­lop­per une tech­no­lo­gie comportemen­tale puis­sante et pré­cise, un outil uni­ver­sel de modi­fi­ca­tion des com­por­te­ments. Le capi­ta­lisme de sur­veillance réa­lise cette technolo­gie. Il ne pro­meut aucun régime poli­ti­que, aucune reli­gion, aucune morale : le seul péché, c’est l’auto­no­mie de l’indi­vidu, l’audace de faire obs­truc­tion à la col­lecte de ses don­nées per­son­nel­les. Cette liberté est confis­quée par les clients du numé­ri­que, sous l’impé­ra­tif de la cer­ti­tude. Même les gou­ver­ne­ments « exi­gent les machi­nes à cer­ti­tude qui pro­met­tent des moyens fia­bles de détec­tion et de pré­dic­tion et même l’actua­tion auto­ma­ti­que de contre-mesu­res. »

Le sys­tème chi­nois du crédit social est le plus avancé dans la col­lecte et l’exploi­ta­tion des don­nées à des fins de contrôle des indi­vi­dus et des entre­pri­ses. C’est l’apo­théose du pou­voir ins­tru­men­ta­rien. Le plus scanda­leux, selon S. Zuboff, ce n’est pas le tota­li­ta­risme chi­nois, mais c’est que ce modèle ouvre la voie à des che­mins simi­lai­res dans la Silicon Valley. La seule dif­fé­rence est dans la fina­lité ultime : pour la Chine, le contrôle de l’État ; pour la Silicon Valley, le profit com­mer­cial. « L’ins­tru­men­ta­risme recher­che la tota­lité comme domi­na­tion de marché et compte pour libé­rer la voie sur son contrôle de la divi­sion du savoir dans la société, rendue pos­si­ble et assu­rée par Big Other. »

Le capi­ta­lisme de sur­veillance enserre les uti­li­sa­teurs dans un esprit de ruche où tous les mou­ve­ments sont préa­la­ble­ment défi­nis, gérés en harmo­nie, opérés à l’unis­son en conver­gence vers l’effi­ca­cité maxi­male. Par exem­ple, on peut orga­ni­ser un chan­tier à partir de la qua­li­fi­ca­tion de chaque employé ; si un employé non qua­li­fié pour manier un mar­teau-piqueur s’en appro­che et le prend, un signal d’alerte reten­tit et l’outil se désac­tive auto­ma­ti­que­ment. Grâce à l’intel­li­gence arti­fi­cielle, « on peut fouiller le monde réel à la recher­che de gens, d’objets et d’acti­vi­tés et leur appli­quer des règle­ments. » Les lieux de tra­vail sont conçus comme les labo­ra­toi­res de Skinner pour les rats et les pigeons. On obtient des com­por­te­ments cali­brés, sûrs, har­mo­nieux, sans résis­tance pos­si­ble. L’esprit de ruche permet d’éliminer tous les éléments de chaos et de garan­tir les résul­tats fixés par le plan.

Dès que quelqu’un tombe malade, il reçoit auto­ma­ti­que­ment un rendez-vous médi­cal ; le bus passe au moment où il arrive à l’arrêt ; chez son méde­cin, son dos­sier s’affi­che tout de suite sur l’ordi­na­teur, etc. Tout peut être prévu et orga­nisé de telle sorte qu’il ne se pro­duise aucune friction. En réa­lité, ce fonc­tion­ne­ment pro­fite moins à la popu­la­tion qu’aux quel­ques-uns qui en tirent profit. Les consi­dé­ra­tions indi­vi­duel­les, comme le ques­tion­ne­ment moral ou les repè­res poli­ti­ques, sont écartées parce qu’elles font perdre du temps et qu’elles détour­nent de la convergence des com­por­te­ments. Une nou­velle classe domi­nante apparaît, celle des ajus­teurs de com­por­te­ment, pour pro­duire les compor­te­ments les plus effi­ca­ces du point de vue du col­lec­tif, au-delà des liber­tés indi­vi­duel­les.

Des psy­cho­lo­gues ont lon­gue­ment tra­vaillé sur la concep­tion des machines à sous pour les casi­nos de Las Vegas, de façon à ce que le joueur, en s’oubliant lui-même, soit pris dans une zone telle qu’il ne puisse plus se détour­ner du jeu, comme une main est prise dans un gant. Facebook appli­que les mêmes prin­ci­pes de l’addic­tion technologique ; il est conçu comme un média dont les uti­li­sa­teurs n’éprouvent jamais le besoin de détour­ner le regard. Il englou­tit en masse le temps et la cons­cience de ses uti­li­sa­teurs. Le réseau Facebook est un agen­ce­ment de mil­lions de miroirs, chaque « like » actionné don­nant un nou­veau détail sur la main, ce qui permet d’ajus­ter davan­tage le gant et de pré­dire ce que va faire l’uti­li­sa­teur. L’uti­li­sa­tion se déroule comme une boucle de rétroac­tion de plus en plus courte et serrée. Il n’y a plus de refuge pos­si­ble, plus de recoin, plus aucun sanctuaire dans lequel on pour­rait échapper au pou­voir tota­li­sant. La ques­tion « Mais qu’avez-vous donc à cacher ? » est posée pour déstabili­ser l’uti­li­sa­teur par un sen­ti­ment de culpa­bi­lité. Mais, en réa­lité, si l’on n’a rien à cacher, c’est que l’on n’a plus de vie privée, c’est que l’on n’est plus rien à ses pro­pres yeux.

La règle­men­ta­tion euro­péenne (RGPD) a pu nous redon­ner un espoir, mais ceux qui ont voulu se battre pour faire appli­quer ses pré­co­ni­sa­tions n’y sont pas par­ve­nus, tant les obs­ta­cles sont consi­dé­ra­bles. Facebook refuse abso­lu­ment, au nom du secret indus­triel, de donner le « texte fantôme » élaboré à partir des don­nées per­son­nel­les. Par un sub­ter­fuge sur ses condi­tions d’uti­li­sa­tion, Facebook a fait passer en 2018 les données per­son­nel­les sous le coup des lois amé­ri­cai­nes, pour échapper à la règle­men­ta­tion euro­péenne. Il fau­drait une orga­ni­sa­tion col­lec­tive des uti­li­sa­teurs pour mener le combat.

 

4. Les rapports du capitalisme aux nouvelles technologies

Une ques­tion com­plexe se pose : com­ment s’arti­cu­lent le capi­ta­lisme et les tech­no­lo­gies ? Sans la trai­ter spé­ci­fi­que­ment, S. Zuboff four­nit quelques éléments de réponse. Son expres­sion « capi­ta­lisme de surveillance » est dis­cu­ta­ble, car la sur­veillance n’est encore qu’un moyen en vue d’une autre fin : tirer profit des don­nées per­son­nel­les. L’expres­sion « capi­ta­lisme des don­nées » aurait été plus adé­quat et, en même temps, plus iro­ni­que avec l’équivocité du mot « don­nées ».

Le capi­ta­lisme numé­ri­que s’est arrogé le droit de déci­der, à la place de l’indi­vidu, de ce qui res­te­rait privé et de ce qui serait rendu public. Cette déci­sion prise par les diri­geants de Google n’est pas un acci­dent malheu­reux, ni une erreur occa­sion­nelle, ni une néces­sité économique, ni une consé­quence néces­saire du déve­lop­pe­ment tech­no­lo­gi­que, mais bien un choix humain pour conver­tir des don­nées gra­tui­tes en revenu. La déci­sion d’inves­tir dans le numé­ri­que consiste à saisir une bonne occasion, au bon moment, et à cher­cher tous les moyens de récu­pé­rer un retour sur inves­tis­se­ment, rapide et maxi­mal, sans aucun scru­pule éthique.

On doit dis­tin­guer deux savoirs cor­res­pon­dant à deux textes numériques : 1. Le texte fami­lier connu des uti­li­sa­teurs et le texte fantôme connu des seuls usa­gers (les « data scien­tists »). Le para­doxe est que le texte fan­tôme en sait plus sur nous-mêmes que ce que nous pou­vons connaî­tre de nous-mêmes. On a formé un nou­veau clergé qui sait ce que les autres ne savent pas. Quand une per­sonne est har­ce­lée sur Internet, elle sait qu’elle est har­ce­lée ; mais quand on pro­duit des infor­ma­tions sur elle sans qu’elle le sache, on fran­chit la limite du droit démo­cra­ti­que. Le capi­ta­lisme de sur­veillance est anti-démo­cra­ti­que, mais son pou­voir ne pro­vient ni de l’État, ni de la seule tech­no­lo­gie, ni de mau­vai­ses inten­tions de cer­tains. « Ce sont les consé­quen­ces d’une logi­que d’accu­mu­la­tion réus­sie. » La guerre de l’infor­ma­tion tourne le dos à la démo­cra­tie. Trois ques­tions se posent : Qui sait ? Qui décide ? Qui décide qui décide ? « Dans l’état actuel des choses, ce sont les entre­pri­ses capi­ta­lis­tes de sur­veillance qui savent. C’est la forme du marché qui décide. C’est la lutte concur­ren­tielle entre les capi­ta­lis­tes de sur­veillance qui décide qui décide. » L’infor­ma­ti­cien employé par les socié­tés du numé­ri­que en est réduit à quel­ques ques­tions de cons­cience morale : « Qu’ai-je réel­le­ment fait ? Quels sont l’appli­ca­tion et l’usage ulti­mes des fruits de mon tra­vail ? […] Suis-je satis­fait d’avoir contri­bué à cet usage ? Ou bien mort de honte ? » Mais son employeur n’en a que faire.

Le capi­ta­lisme de sur­veillance intro­duit trois nou­veau­tés par rap­port aux formes anté­rieu­res du capi­ta­lisme : 1. Il affirme pour le capi­ta­liste une liberté et un savoir illi­mi­tés sur les indi­vi­dus ; 2. Il rompt avec toute idée de contrat et de réci­pro­cité ; 3. Il cons­truit une vision col­lec­ti­viste nour­rie par l’indif­fé­rence radi­cale sur le modèle de la ruche.

Ses pro­fits sont énormes, avec très peu de masse sala­riale. En 2016, Google valait 532 mil­liards de dol­lars avec seu­le­ment 75000 emplois, Facebook 332 mil­liards avec 18000 emplois, alors que General Motors a péni­ble­ment atteint, en 1965, 225 mil­liards avec 735000 emplois. Les entre­pri­ses du numé­ri­que rédui­sent au maxi­mum le lien avec l’emploi, et, en consé­quence, sont com­plè­te­ment indif­fé­ren­tes aux enjeux poli­ti­ques de la société, aux consé­quen­ces socia­les de leurs inno­va­tions.

Ce qui leur importe, c’est d’obte­nir des pro­duits qui atti­rent tout le monde, quelle qu’en soit la qua­lité éthique. C’est pour­quoi la désinformation, les dis­cours de haine, les escro­que­ries cir­cu­lent sur les réseaux sociaux, tant que cela contri­bue au flux des uti­li­sa­teurs. La préten­due « modé­ra­tion des conte­nus » n’est uti­li­sée qu’en cas de menace de réduc­tion du flux, non par un quel­conque sens des responsabi­li­tés. Elle est sous-trai­tée auprès d’une main d’œuvre de plus de 100000 employés, qui ont pour consi­gne de ne pas effa­rer les utilisateurs. Des outils exis­tent pour éliminer les Fake news, mais puisqu’elles atti­rent les uti­li­sa­teurs, il ne faut pas les dépu­blier. Le sensation­na­lisme fait grim­per le nombre de clics. « Tant que les tuyaux cou­lent à flots, peu importe ce qu’ils char­rient. »

 

5. Le projet politique de l’Internet

Les socié­tés du numé­ri­que se défen­dent de tout parti pris poli­ti­que, au sens où elles ne sont ni de gauche, ni de droite, mais elles impo­sent bien un projet poli­ti­que fon­da­men­tal dans la for­ma­tion d’une société sur le modèle de la ruche. « La société idéale de Google est une popu­la­tion d’uti­li­sa­teurs dis­tants et non de citoyens. Google idéa­lise les gens qui sont infor­més, mais seu­le­ment par les moyens que l’entre­prise choi­sit. Ce qui signi­fie que nous devons être doci­les, har­mo­nieux et, par-dessus tout, reconnais­sants. » En 2017, aux USA, un débat opposa le parti répu­bli­cain, opposé à la régle­men­ta­tion res­trei­gnant l’emprise des sociétés numé­ri­ques sur les don­nées per­son­nel­les, et le parti démo­crate consi­dé­rant que ces don­nées étaient la pro­priété de l’uti­li­sa­teur. Le parti répu­bli­cain l’a emporté. Cette dépos­ses­sion des uti­li­sa­teurs repose sur cinq pré­ten­tions du capi­ta­lisme de sur­veillance : 1. Il reven­di­que la posses­sion des don­nées per­son­nel­les. 2. Il affirme le droit de les convertir en don­nées com­por­te­men­ta­les. 3. Il reven­di­que la pro­priété de ces der­niè­res. 4. Il reven­di­que le droit de savoir ce que révè­lent ces prédic­tions com­por­te­men­ta­les. 5. Il s’arroge le droit de déci­der d’en faire ce qu’il veut. Il impose les condi­tions de tous ces droits.

Le capi­ta­lisme de sur­veillance vise à éliminer le plus pos­si­ble tous les éléments d’incer­ti­tude sur le marché. Par exem­ple, au lieu d’envoyer un huis­sier pour pro­cé­der à une saisie de biens chez un vieux couple endetté, on pré­fère pra­ti­quer le « décontrat », à savoir la « déci­sion » auto­ma­ti­que imposé par un logi­ciel sans aucun recours pos­si­ble, car l’huis­sier demeure après tout un être humain sen­si­ble qui pour­rait frei­ner la récu­pé­ra­tion de la dette. La confiance est d’emblée éliminée et rempla­cée par l’a priori de la méfiance ; la vie sociale est trans­for­mée en méca­ni­que numé­ri­sée. Le sujet est dépourvu de projet et est réduit à l’état d’objet connecté, sans retrait pos­si­ble, sans résis­tance, sans protec­tion de ses droits.

Le capi­ta­lisme de sur­veillance est une force anti­dé­mo­cra­ti­que qui a réussi un coup d’État, non contre l’État lui-même, mais contre le peuple. C’est une forme de tyran­nie qui se nour­rit du peuple sans en émaner. Son but n’est pas la domi­na­tion de la nature, mais la domi­na­tion de la nature humaine. Certains d’entre nous res­te­ront des sujets, tandis que tous les autres ne seront que des objets ; cer­tains sont des sti­muli, et la plu­part ne sont que des réac­tions. La loi du marché des don­nées n’est plus com­pa­ti­ble avec la démo­cra­tie. Est-il juste de reti­rer à chacun d’entre nous la sou­ve­rai­neté sur sa propre vie ?

Jean-Marie Nicolle, le 1er mars 2021.

L’Âge du capitalisme de surveillance, par Shoshana Zuboff (Paris, éd. Zulman, 2020)

 

Imprimer

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies pour réaliser des statistiques de visites