Olivier Ertzscheid : “Le continent numérique, ça n’existe pas !”

Le 05/12/2017 - Par Jamila Chafii
« Si on ne comprend pas comment fonctionne un algorithme, alors on bascule dans le monde imaginé par Georges Orwell »

Olivier Ertzscheid est maître de conférences en sciences de l’information et de la communication à l’IUT de La Roche-sur-Yon. Il est spécialiste des questions relatives aux usages numériques. En 2017, il publie l’appétit des géants : pouvoir des algorithmes, ambitions des plateformes, un livre qui reprend ses nombreuses chroniques publiées sur son blog.

Dans une chronique publiée en mai 2014, vous déclarez : « Nous sommes les ingénieurs crédules et des bêtatesteurs bénévoles d’un nouveau projet Manhattan. En attendant un Hiroshima technologique, génétique, boursier qui n’a jamais été aussi probable ». La cyberattaque de mai dernier qui a notamment touché le NHS, service hospitalier britannique, voulait-elle être cet Hiroshima ?

Effectivement, c’est un des exemples de ce que pourrait être une forme de catastrophe technologique. C’est-à-dire, du jour au lendemain, mettre des secteurs entiers (santé, transports) en panne, avec derrière des impacts considérables.

D’un point de vue à la fois pragmatique, mais aussi moral, lorsque je parle de cet Hiroshima technologique ou du projet Manhattan, c’est au sens où à l’époque du projet Manhattan, il y a eu un certain nombre de personnes qui ont arrêté leurs recherches parce que les risques n’étaient plus maîtrisés.

Aujourd’hui, à l’échelle des technologies du numérique, de l’intelligence artificielle (IA), nous sommes arrivés au point où il faut qu’un certain nombre de gens aux manettes de ces grandes sociétés disent stop, non pas pour arrêter le progrès, mais simplement pour réfléchir aux implications sociétales.

Plusieurs personnalités médiatiques, chercheurs et ingénieurs pointent les dérives et essayent d’inventer d’autres technologies plus respectueuses, ça nous permet d’être relativement confiants sur l’avenir.

Vous affirmez que « le numérique est une technologie littéralement nucléaire », qu’entendez-vous par là ?

On travaille avec le nucléaire sur des technologies qui agissent à l’échelle atomique. De la même manière qu’on ne voit pas les atomes... 

...on ne voit pas les immenses quantités de données que brassent en permanence un algorithme pour activer ne serait-ce que notre GPS.

Donc, c’est compliqué de s'apercevoir des dangers de cette technologie puisqu’elle est invisible à l’oeil nu.

Toujours dans la même chronique, vous déclarez : « Après s'être interrogé pendant des années sur l'externalisation de nos mémoires documentaires et la numérisation de nos relations sociales, les progrès de l'ingénierie algorithmique, [...] il faut bâtir une “éthique de l'automatisation” ». Concrètement, comment procéder ?

Aujourd’hui, le développement de ces technologies numériques s’inscrit dans une logique qui vise à décider automatiquement un certain nombre de choses pour nous.

Par exemple, l'algorithme de Facebook décide de nous afficher certaines informations et pas d’autres, etc. Derrière ces logiques de décision, il y a des décisions littéralement vitales ; si on prend une mauvaise décision, on va mettre des vies en danger.

Si on ne crée pas un cadre défini pour les décisions algorithmiques qui vont être prises dans le secteur de la santé, de l’éducation, des transports ou de la médecine, on se retrouvera face à des problèmes considérables.

À partir du moment où on développe l’automatisation de la prise de décision, il est important de savoir dans quel cadre éthique et moral on va se situer, c’est aux citoyens, aux pouvoirs publics, mais aussi aux chercheurs de réfléchir à ce cadre, ensemble.

Vous écrivez que « l’homme est un document comme les autres, c'est-à-dire indexable, découpable, calculable, monétisable ». Un récent rapport montre que les Français sont de plus en plus préoccupés par leur e-réputation. Est-ce un premier pas pour considérer l’homme comme un document différent des autres ?

Oui, maintenant les gens ont compris quels étaient les enjeux, quels étaient les problèmes. Tout a évolué de manière très positive, ce qui n’empêche pas qu’un très grand nombre de sociétés - comme Facebook- continuent de faire n’importe quoi avec nos données.

Néanmoins, elles feront plus attention à l’avenir parce qu’on a pris conscience qu’il y a des données que nous ne sommes pas obligés de leur confier. Il y a aussi un certain nombre de lois qui ont émergé au niveau local, puis au niveau européen.

La prochaine entrée en vigueur du nouveau RGPD, Règlement général sur la protection des données, est-elle une bonne nouvelle selon vous ?

La philosophie de ce règlement est la bonne, mais il y a un enjeu de territorialité qui limite son champ d’application. Le continent numérique n’existe pas. Quand on veut faire appliquer une loi ou un règlement, ça ne s’applique que sur un territoire.

Toutes ces grandes sociétés ont bâti leurs entreprises sur des ruses autour du territoire. Pour ne pas payer d’impôt, elles vont en Irlande, pour ne pas être assujetties à la loi sur les données personnelles, elles installent leurs sièges ailleurs.

C’est légitime que le législateur réfléchisse aux moyens pratiques de faire payer ces amendes, mais personnellement je n’y crois pas. En observant tout l’historique des procès, on voit bien qu’au final, ces sociétés ne paieront pas ces amendes, parce qu’elles trouveront des échappatoires.

Dans votre billet « Algos racistes et IA fascistes », vous concluez : « Nous sommes entrés dans la période historique où, aujourd’hui, une algorithmie sans éthique nous mènera exactement au même point qu’une science sans conscience hier ». Au vu de la fascination et souvent la frénésie que génèrent les avancées en matière d’IA, comment rendre les algorithmes éthiques ?

La première règle pour rendre les algorithmes éthiques, c’est circonscrire leur périmètre d’application. Ensuite, il y a la question de l'ouverture des données qui permet de nourrir cet algorithme. Ces données sont-elles des données publiques ? Si oui, la société civile y a-t-elle réellement accès ? La problématique des données et de l’ouverture de ces données est primordiale. Il faut qu’on puisse regarder comment cela fonctionne.

Dans le domaine judiciaire, c’est la même chose. Par exemple, dans certains pays européens, il y a un traitement algorithmique qui intervient en amont du traitement d’un dossier et qui décide de la priorité, et parfois suggère un verdict. Comment fonctionnent ces algorithmes ? Peut-on vraiment s’assurer qu’ils ne dysfonctionnent pas ?

Si l'on n'est pas en capacité de le déterminer, alors effectivement on bascule dans un monde qui est littéralement celui imaginé par Georges Orwell. Un monde où l'on n’a plus le contrôle sur des décisions que prend l’algorithme, ce n’est rien d’autre qu'accepter la décision de quelqu’un d’autre.

Mais il faut pouvoir remonter cette chaîne. Et puis le dernier moyen, c’est de former les personnes qui fabriquent ces algorithmes, les ingénieurs, les techniciens, les programmateurs, etc.

L’administration des États-Unis a remis en cause le principe de neutralité du web, pensez-vous qu’il soit possible de revenir sur cette décision ?       

Les États-Unis sont en mesure de revenir sur ce principe. Cela dit, plus fondamentalement, derrière la neutralité du net, il y a des questions économiques qui font l’objet de lobbyings. Il y a le principe, la philosophie de ce que doit être la neutralité du net et il y a un lobbying considérable.

À partir du moment où Google - pour ne citer qu’un exemple - détient les contenus (avec YouTube) et est aussi le propriétaire de la fibre par laquelle circulent ces contenus, bien évidemment, il ne peut plus y avoir de neutralité du web. En tout cas, on ne pourra jamais vérifier que Google ne privilégie pas ses propres contenus au détriment de ceux des autres

À lire sur Archimag