Si une personne de l'État d'Australie occidentale contracte le covid-19, elle doit rester en quarantaine à domicile pendant les sept jours suivants, tout comme ses contacts proches.
La police vérifie leur localisation en envoyant périodiquement des SMS et exige l'envoi d'un selfie dans les 15 minutes.
La technologie de reconnaissance faciale et le suivi GPS sont utilisés pour déterminer si la personne qui a pris le selfie est effectivement chez elle.
Si cela n'est pas fait, la police frappe rapidement à votre porte avec une amende potentiellement lourde.
L'application G2G, créée par la start-up technologique locale Genvis, a été utilisée par plus de 150 000 personnes dans l'État depuis son lancement en septembre 2020.
La même technologie, fournie par des entreprises différentes, a été testée dans les États de Nouvelle-Galles du Sud, de Victoria, d'Australie-Méridionale et de Tasmanie.
L'Australie se distingue comme la seule démocratie à utiliser la technologie de reconnaissance faciale pour aider aux mesures de confinement du covid-19, alors que d'autres pays rejettent ce type de surveillance.
Amazon, Microsoft, IBM et Google ont déclaré qu'ils ne vendraient pas leurs algorithmes de reconnaissance faciale aux organismes chargés de l'application de la loi tant qu'une loi fédérale ne serait pas en vigueur.
En novembre 2021, Meta a annoncé que Facebook allait supprimer 1 milliard d'"identités faciales" d'utilisateurs et cesser d'utiliser cette technologie pour marquer les personnes sur les photos.
La Commission australienne des droits de l'homme a demandé un moratoire sur l'utilisation de cette technologie jusqu'à ce que le pays dispose d'une loi spécifique pour réglementer son utilisation.
Les défenseurs des droits humains affirment que les données personnelles obtenues peuvent être utilisées à des fins secondaires et qu'il s'agit là d'un moyen de devenir un État de surveillance.
Des groupes tels qu'Amnesty International mettent également en garde contre le fait que l'utilisation de la reconnaissance faciale entraîne une discrimination raciale.
"La pandémie a créé toutes ces nouvelles justifications pour l'utilisation de la technologie de reconnaissance faciale", explique Mark Andrejevic, professeur d'études des médias à l'université Monash de Melbourne et auteur d'un livre à paraître, Facial Recognition.
"Tout a été mis en ligne et les organisations ont essayé de faire fonctionner les choses très rapidement. Mais on n'a pas pensé aux implications. Voulons-nous vivre dans un monde où tout est numérisé et où il n'y a plus d'espaces privés ? Cela crée un tout nouveau niveau de stress qui ne conduit pas à une société saine."
Le consentement est requis pour l'utilisation de l'application G2G. Il a également été nécessaire après les feux de brousse de l'été 2020 en Australie, lorsque les personnes ayant perdu leurs documents d'identité ont utilisé la reconnaissance faciale pour recevoir une aide financière du gouvernement.
Mais il est arrivé que la technologie de reconnaissance faciale soit utilisée de manière voilée.
En octobre, le groupe de magasins de proximité 7-Eleven a été reconnu coupable d'avoir violé la vie privée de ses consommateurs en collectant les identifiants faciaux de 1,6 million de clients australiens lorsqu'ils remplissaient des enquêtes de satisfaction.
Les identifications faciales auraient été utilisée afin d'obtenir des profils démographiques du public et d'empêcher les employés de manipuler les enquêtes pour augmenter leur cote. La société n'a pas été condamnée à une amende.
Le ministère australien de l'Intérieur a commencé à constituer une base de données nationale de reconnaissance faciale en 2016 - et semble prêt à la mettre en œuvre.
En janvier, elle a lancé un appel d'offres pour trouver une entreprise chargée de "construire et déployer" les données.
"La reconnaissance faciale est sur le point d'être déployée à une échelle relativement large", déclare Andrejevic.
"L'Australie se prépare à utiliser la reconnaissance faciale pour permettre l'accès aux services gouvernementaux. Et parmi les agences de sécurité publique, il y a définitivement un désir d'avoir accès à ces outils."
La plupart des gouvernements des États ont fourni les permis de conduire de leurs résidents à la base de données centrale, qui stocke également les photos des visas et des passeports.
En 2019, un projet de loi a été proposé pour réglementer la technologie de reconnaissance faciale - mis au placard après qu'un examen par une commission parlementaire ait constaté qu'elle n'offrait pas de protections adéquates de la vie privée.
Parmi ses plus fervents détracteurs figurait le commissaire australien aux droits de l'homme de l'époque, Edward Santow.
"Nous sommes maintenant dans la pire des situations, puisqu'il n'y a pas de loi spécifique, nous avons affaire à des protections fragmentaires qui ne sont pas complètement efficaces et certainement pas complètes", dit Santow.
"Mais la technologie continue d'être déployée".
M. Santow travaille avec son équipe de l'Université de technologie de Sydney sur les moyens de rendre les dispositions relatives à la vie privée plus solides.
La technologie de reconnaissance faciale a déjà été testée dans plusieurs écoles par différents fournisseurs, tout comme la technologie de reconnaissance d'objets, qui serait capable d'identifier une arme dissimulée.
"Clearview AI exploite la terreur et le traumatisme des gens en disant que la surveillance et le maintien de l'ordre sont la réponse", évalue Nashashibi.
Hoan Ton-That, fondateur et PDG australien de Clearview AI, n'est pas d'accord.
Selon lui, la technologie de reconnaissance faciale présente un grand potentiel pour la prévention de la criminalité, car elle permet de s'assurer que seules les personnes autorisées ont accès à un bâtiment tel qu'une école.
"Nous avons vu notre technologie utilisée avec beaucoup de succès par les forces de l'ordre pour mettre fin au trafic d'armes, et nous espérons que notre technologie pourra être utilisée pour aider à prévenir les crimes tragiques liés aux armes à feu à l'avenir", dit-il.
En Australie, la technologie de reconnaissance faciale est utilisée dans plusieurs stades pour empêcher l'entrée de terroristes présumés ou de hooligans du football qui ont été contrôlés.
M. Andrejevic estime que l'utilisation de la reconnaissance faciale comme mesure de sécurité constitue une avancée significative en matière de surveillance et doit être examinée avec soin.
"On reproche souvent à la vidéosurveillance (réseau de caméras de surveillance) de n'offrir des preuves qu'après coup, alors que la reconnaissance faciale génère des informations utiles en temps réel pour prévenir la criminalité", explique-t-il.
"C'est une conception très différente de la sécurité".
La reconnaissance faciale en temps réel est déjà utilisée par certaines forces de police dans le monde.
La police métropolitaine de Londres, par exemple, l'utilise pour surveiller des zones spécifiques à la recherche de criminels ou de personnes susceptibles de représenter un risque pour le public.
Clearview a créé une base de données de 20 milliards d'images faciales, en grande partie en saisissant des photos sur les médias sociaux sans consentement.
Ton-That affirme que l'entreprise ne travaillera pas avec des gouvernements autoritaires comme ceux de la Chine, de la Corée du Nord et de l'Iran. Mais elle a rencontré des problèmes dans certaines démocraties.
Il a été interdit au Canada et en Australie et, le 24 mai, l'Information Commissioner's Office (ICO) du Royaume-Uni lui a infligé une amende de plus de 7,5 millions de livres sterling après une enquête conjointe avec l'organisme australien correspondant.
La société a reçu l'ordre de supprimer les données des résidents britanniques de ses systèmes.
En décembre 2021, l'organisme français de surveillance de la vie privée a estimé que Clearview avait enfreint le Règlement général sur la protection des données (RGPD) de l'Europe.
Selon M. Santow, l'objectif en Australie est de développer une approche différenciée qui encourage l'utilisation d'applications positives et impose des protections pour prévenir les dommages.
Le pire scénario serait de reproduire le système chinois de "crédit social", dans lequel les individus et les organisations sont sélectionnés par le gouvernement pour déterminer leur "fiabilité".
"Pour déterminer si une utilisation est bénéfique ou nuisible, nous nous référons au cadre international de base des droits de l'homme qui existe dans presque toutes les juridictions du monde", explique M. Santow.
Par exemple, la loi exigerait un consentement libre et éclairé pour utiliser la reconnaissance faciale.
Toutefois, si la technologie était source de discrimination en raison de son inexactitude par rapport à certains groupes, le consentement ne serait plus pertinent. Comme le dit Santow :
"Vous ne pouvez pas consentir à être victime de disc
"Et cela conduit clairement à des problèmes lorsque vous avez des personnes non blanches ou des personnes d'ethnies ou de milieux différents qui ne correspondent pas aux modèles de formation. Au bout du compte, ce ne sont que des mathématiques. C'est ça le problème."
En conséquence, les systèmes de reconnaissance faciale sont susceptibles de commettre des erreurs lorsqu'ils tentent de reconnaître les personnes appartenant à une minorité ethnique, les femmes, les personnes handicapées et les personnes âgées.
Leur utilisation a entraîné des arrestations par erreur et d'autres conséquences qui perturbent la vie des gens, rappelle M. Nashashibi.