On nous a à l'oeil

Un technicien est venu installer de nouvelles caméras de surveillance dans notre immeuble cette semaine. Dieu merci, ce ne sont pas des caméras assez sophistiquées pour être combinées à l’intelligence artificielle.

#Surveillance #CamerasDeSurveillance #SurveillanceBiometrique #IntelligenceArtificielle

N’empêche que le fait d’être surveillée chaque fois que je sors et entre dans mon immeuble devrait me déplaire, moi qui utilise plusieurs solutions pour éviter qu’on me suive à la trace quand je navigue dans Internet.

En tout cas, je n’irai certainement pas jusqu’à dire que j’aime ça, comme le prétend Jonathan Durand Folco dans la revue L'Inconvénient (Pourquoi aime-t-on être surveillé? Notes sur la société algorithmique de l’hypervisibilité. Numéro 92, printemps 2023, p. 10–15).

Mais au-delà de cette caméra de surveillance installée dans mon immeuble pour nous rassurer, ais-je le choix d’aimer ou non, avec la montée, depuis plusieurs années déjà, du nombre de caméras de surveillance?

Quoi qu’il en soit, j’ai certainement le choix d’en être inquiète.

La surveillance de masse devient de plus en plus sophistiquée. Certes, nous n’en sommes pas à la surveillance couplée à l’intelligence artificielle qui se développe en Chine. N’empêche qu’il faut tout de même s’en préoccuper, justement à cause de l’IA.

Parce que l’intelligence artificielle n’a pas la capacité d’émettre un jugement moral. Pire, comme le dit Noam Chomsky,

“ChatGPT fait preuve de quelque chose comme la banalité du mal : plagiat, apathie, évitement […] Ce système offre une défense du type ‘je ne fais que suivre les ordres’ en rejetant la responsabilité sur ses créateurs.” ChatGPT, Chomsky et la banalité du mal.

Pourtant, on fait comme si l’IA pouvait distinguer le bien du mal. Parlez-en aux enfants de Gaza qui meurent par milliers sous des bombres téléguidée par intelligence artificielle depuis octobre dernier.

Non seulement le jugement moral n’est pas le fort de l’intelligence artificielle, mais en plus elle pose plus d’un dilemme éthique, dont celui de se demander jusqu’où peut aller la surveillance par caméras.

Surtout quand on se penche sur la surveillance biométrique de masse.

En Europe, la coalition Reclaim your Face milite contre. Pour cette coalition, la reconnaissance faciale peut être et sera utilisée par les gouvernements et les entreprises contre chacun et chacune d'entre nous (allez lire la traduction en français de leur communiqué dénonçant l’accord européen sur la proposition de règlement relative l’intelligence artificielle).

Ici au Québec, la Société de l’Assurance automobile s’est lancée dans la reconnaissance faciale en précisant que la technologie biométrique pourrait servir à faire de la surveillance.

Du côté d’Ottawa, la Ligue des droits et libertés déposait ces jours-ci un mémoire dans le cadre de la Consultation sur les documents d’orientation provisoires à l’intention des institutions publiques et des organisations concernant le traitement des données biométriques.

Le mémoire de la Ligue précise que trois usages en matière de reconnaissance faciale devraient faire l’objet d’une interdiction immédiate par voie législative, dont la surveillance de masse des lieux et endroits publics.

Pas juste au Canada que ça devrait être interdit, parce que pour certains, nous sommes 7 milliards de suspects.


Si vous êtes membre de Remarks.as, vous pouvez commenter ce billet sur Discuss....