0

L’enfer du Web en Éthiopie : "J'ai vu le cadavre de mon père sur Facebook"

 128517127 Moti976 M. Moti a été dévasté en voyant une image aussi horrible

Mon, 20 Feb 2023 Source: www.bbc.com

Lorsque Moti Dereje, étudiant universitaire éthiopien, s'est connecté à son compte Facebook fin novembre 2018, il s'attendait à voir les mises à jour habituelles de ses amis et de sa famille.

Au lieu de cela, le jeune homme de 19 ans - qui étudiait dans la capitale, Addis-Abeba - a vu un post choquant.

"En remettant à jour mon fil d'actualité, j'ai vu le corps mort de mon père étendu là", a-t-il déclaré au podcast The Comb de la BBC.

Non seulement M. Moti a été dévasté en voyant une image aussi horrible, mais c'est ainsi qu'il a appris que son père avait été tué.

"Je suis resté immobile, comme une pierre, à ce moment-là. C'était vraiment choquant pour moi", dit-il.

L'Éthiopie ayant connu des troubles politiques dans diverses régions au cours des dernières années, les réseaux sociaux ont été inondés d'images et de vidéos graphiques, de désinformation et de messages incitant à la violence.

Les militants demandent que davantage d'efforts soient déployés pour modérer les plateformes et supprimer ces contenus avant qu'ils ne causent des dommages.

Pour M. Moti, plutôt que de voir la photo supprimée, il a commencé à voir d'autres messages montrant la même image.

Son père, un ancien député qui travaillait comme administrateur d'université, a été la cible d'un meurtre politique dans l'ouest de l'Oromia.

La région traversait à l'époque une période de troubles avec des assassinats fréquents.

"C'est comme s'ils célébraient sa mort. C'était vraiment douloureux", explique M. Moti.

  • L'église de Lalibela en Ethiopie
La BBC a vu 15 de ces messages, que M. Moti dit avoir signalés à Facebook dans l'espoir qu'ils soient retirés.

Les normes communautaires de Facebook stipulent que l'entreprise supprimera "les vidéos et les photos montrant la mort violente d'une personne lorsqu'un membre de la famille en fait la demande".

Mais pendant plus de quatre ans, et après que M. Moti ait signalé les publications à plusieurs reprises, elles sont restées en ligne.


Seul un avertissement de contenu graphique a été appliqué à certaines des photos.

"Parfois, je suis déprimé et je ne peux pas empêcher ma main de chercher son nom et de vérifier les messages. Je suis un peu traumatisé, je pense", dit M. Moti.

Lorsque la BBC s'est adressée à Meta, la société mère de Facebook, pour obtenir des commentaires, elle a convenu que si les photos seules ne violaient pas sa politique en matière de contenu violent et graphique, elle supprimerait les publications à la demande d'un membre de la famille.

Toutes les publications montrant la photo du père décédé de M. Moti ont maintenant été retirées.

Il n'existe actuellement aucun mécanisme dans le système de signalement de Facebook permettant aux membres de la famille de faire ces demandes, mais Meta a déclaré à la BBC qu'elle testait un nouveau formulaire pour le permettre.

Le contenu éthiopien est ignoré

Le volume de contenus graphiques et de discours haineux partagés sur les réseaux sociaux éthiopiens suscite de plus en plus d'inquiétudes.

  • Immersion dans la ville éthiopienne isolée du monde par la guerre
Ce problème existait déjà avant 2020, mais lorsque la guerre dans la région du Tigré, dans le nord du pays, a éclaté en novembre de cette année-là, la quantité de violence diffusée sur les fils d'actualité a augmenté de façon spectaculaire.

En 2021, le conseil de surveillance de Facebook a recommandé que la société commande une enquête indépendante pour l'Éthiopie spécifiquement, afin d'examiner comment la plateforme a été utilisée pour diffuser des discours de haine et ajouter à la violence.

Cette enquête n'a pas été entreprise. La BBC a interrogé Meta à ce sujet, et un porte-parole a souligné une réponse antérieure de la société, disant qu'elle évaluerait la faisabilité d'un tel examen - et qu'elle avait déjà mené de multiples formes de diligence raisonnable en matière de droits de l'homme concernant l'Éthiopie.

L'année dernière, il a été annoncé que Meta était poursuivie par deux Éthiopiens qui prétendent que l'algorithme de Facebook a contribué à alimenter la propagation virale de la haine et de la violence.

Meta a répondu qu'elle avait investi massivement dans la modération et la technologie pour éliminer la haine.

Mais Rehobot Ayalew, un consultant en vérification des faits basé à Addis-Abeba, s'interroge sur les mesures prises par les entreprises de réseaux sociaux pour résoudre le problème.

"Je ne pense pas que les plateformes accordent autant d'attention à l'Éthiopie", a-t-elle déclaré.

"Je sais que Facebook dit qu'il a des modérateurs qui se concentrent sur l'Éthiopie, qui parlent amharique et tigrinya, mais nous ne savons pas combien. Et ils ne travaillent même pas depuis l'Éthiopie, ils travaillent au Kenya. "

L'impact de cette situation, selon Mme Rehobot, est que les contenus violents restent souvent en ligne beaucoup trop longtemps.

"Il faut généralement beaucoup de temps pour qu'un post toxique soit retiré", dit-elle.

Une colère exacerbée

Mme Rehobot fait référence à une vidéo qui a été largement partagée en mars 2022, dans laquelle un homme tigréen a été brûlé vif.

"Tout d'abord, l'intelligence artificielle aurait dû la supprimer d'elle-même", explique-t-elle.

"Ensuite, même après avoir été signalée, elle aurait dû être retirée rapidement, mais elle est restée pendant quelques heures".

Un porte-parole de Meta a déclaré à la BBC : "Nous avons des règles strictes qui décrivent ce qui est et n'est pas autorisé sur Facebook et Instagram. Les discours haineux et l'incitation à la violence sont contraires à ces règles et nous investissons massivement dans les équipes et la technologie pour nous aider à trouver et à supprimer ce contenu.

"Nous employons du personnel ayant des connaissances et une expertise locales, et nous continuons à développer nos capacités pour attraper les contenus en infraction dans les langues les plus parlées du pays, notamment l'amharique, l'oromo, le somali et le tigrinya."

Si l'attention du public peut être attirée sur d'odieuses violations des droits de l'homme, des contenus de ce type peuvent également être utilisés pour attiser la colère et rejeter la faute sur des groupes ethniques ou des individus spécifiques.

Pendant ce temps, des milliers, voire des millions, d'Éthiopiens ressentent les effets traumatisants de ces contenus.

En novembre de l'année dernière, un accord de paix a été signé dans le but de mettre fin à la guerre dans le Tigré et de commencer à remédier à la situation humanitaire désastreuse qu'elle a provoquée.

Les estimations du nombre de personnes tuées se chiffrent en centaines de milliers, la majorité d'entre elles étant victimes de la faim et du manque de fournitures médicales résultant des combats.

Parallèlement, des troubles secouent toujours la région d'Oromia, qui connaît une rébellion croissante.

Les activistes craignent que la réconciliation dans ces cas soit entravée par la violence qui hante les réseaux sociaux.

"Les gens ont tendance à croire [les messages] et à agir en conséquence, de sorte que la diffusion d'images violentes et destructrices peut certainement ralentir le processus de paix et de réconciliation", explique Mme Rehobot.

Aujourd'hui âgé de 23 ans, M. Moti essaie d'avancer dans sa vie, en poursuivant une carrière de vidéaste et de photographe, et il est même en train de réaliser un documentaire sur sa propre expérience.

"Je pense qu'il est temps que je raconte ma propre histoire en essayant de me défendre et peut-être, si je réussis, que je pourrai apporter un changement", dit-il.

Mais il affirme que la prévalence des contenus graphiques le troublera tant qu'elle ne sera pas maîtrisée.

"Chaque fois que je vois un cadavre posté en ligne ou sur Facebook en raison de la guerre en Éthiopie, je suis vraiment attristé. Quelqu'un va ressentir ce que j'ai vécu.

"Cela me tue vraiment".

Source: www.bbc.com