Instagram : Prendre des mesures supplémentaires pour protéger les personnes qui utilisent Instagram

Rien n’est plus important pour moi que la sécurité des personnes qui utilisent Instagram, en particulier les plus vulnérables. Le suicide et l’automutilation sont des sujets difficiles et complexes qui intéressent naturellement les gens. Ces questions sont compliquées – il existe de nombreuses opinions sur la meilleure façon de les aborder – mais elles importent beaucoup, et pour moi, en tant que parent, elles reviennent certainement à la maison.

Mes premières pensées vont à toute personne confrontée à ces problèmes difficiles, à sa famille et à ses amis. Je ne peux pas commencer à imaginer ce qu’ils vivent. Je reconnais également que le simple fait de garder les gens dans mes pensées ne suffit pas. Chez Instagram, nous devons à tous ceux qui utilisent notre plate-forme – en particulier ceux qui peuvent être à risque de suicide et d’automutilation – de faire tout notre possible pour assurer leur sécurité.

Deux choses sont vraies au sujet des communautés en ligne, et elles sont en conflit l’une avec l’autre. Premièrement, la réalité tragique est que certains jeunes sont influencés de manière négative par ce qu’ils voient en ligne et, par conséquent, ils peuvent se blesser. C’est un vrai risque.

Mais en même temps, il y a beaucoup de jeunes qui viennent en ligne pour obtenir du soutien dans les difficultés qu’ils ont – comme ceux qui partagent des cicatrices guéries ou parlent de leur rétablissement d’un trouble de l’alimentation. Souvent, ces réseaux d’assistance en ligne sont le seul moyen de trouver d’autres personnes qui ont partagé leurs expériences.

Sur la base des conseils d’experts d’universitaires et d’organisations de santé mentale comme les Samaritains au Royaume-Uni et la National Suicide Prevention Line aux États-Unis, nous visons à trouver le difficile équilibre entre permettre aux gens de partager leurs expériences de santé mentale tout en protégeant les autres contre toute exposition potentielle contenu nuisible.

Nous comprenons que le contenu qui pourrait être utile à certains peut être nocif pour d’autres. Dans mes conversations avec des jeunes qui ont lutté avec ces problèmes, j’ai entendu que la même image pourrait être utile à quelqu’un un jour, mais déclencher le lendemain. C’est pourquoi nous ne permettons pas aux gens de partager du contenu qui encourage ou encourage l’automutilation ou le suicide. Nous n’avons jamais permis cela.

Plus tôt cette année, nous renforcé notre approche sur le contenu lié au suicide et à l’automutilation. En février, nous avons interdit les images graphiques d’automutilation et construit de nouvelles technologies pour trouver et agir sur ce type de contenu, et nous avons travaillé pour faire en sorte que ce type de contenu, et les comptes qui le partagent, ne soient pas recommandés.

En conséquence, nous avons pu agir sur deux fois plus de contenu qu’auparavant. Dans les trois mois suivant notre changement de politique, nous avons supprimé, réduit la visibilité ou ajouté des écrans de sensibilité à plus de 834 000 éléments de contenu. Nous avons pu trouver plus de 77% de ce contenu avant qu’il ne nous soit signalé. Bien que ce soit un progrès, nous savons que le travail ici n’est jamais fait.

Le mois dernier, nous avons élargi nos politiques pour interdire davantage de types de contenus d’automutilation et de suicide. Nous n’autoriserons plus les représentations fictives d’automutilation ou de suicide sur Instagram, telles que les dessins ou les mèmes ou le contenu de films ou de bandes dessinées utilisant des images graphiques. Nous supprimerons également les autres images qui peuvent ne pas montrer d’automutilation ou de suicide, mais qui incluent les matériaux ou méthodes associés.

Les comptes partageant ce type de contenu ne seront également pas recommandés dans la recherche ou dans nos surfaces de découverte, comme Explore. Et nous enverrons plus de personnes plus de ressources avec des lignes d’assistance localisées comme les Samaritains et PAPYRUS au Royaume-Uni ou le National Suicide Prevention Lifeline et The Trevor Project aux États-Unis.

Ce sont des problèmes complexes qu’aucune entreprise ou ensemble de politiques et de pratiques ne peut résoudre à lui seul. On me demande souvent, pourquoi autorisons-nous du contenu sur le suicide ou l’automutilation sur Instagram? Les experts nous disent que donner aux gens la possibilité de partager leurs moments les plus difficiles et leurs histoires de rétablissement peut être un moyen de soutien vital. Le fait d’empêcher les gens de partager ce type de contenu pourrait non seulement stigmatiser ces types de problèmes de santé mentale, mais aussi empêcher les proches d’identifier et de répondre à un appel à l’aide.

Mais pour bien adopter notre approche, il faut plus qu’un simple changement à nos politiques ou une mise à jour ponctuelle de notre technologie. Notre travail ici n’est jamais terminé. Nos politiques et nos technologies doivent évoluer à mesure que de nouvelles tendances émergent et que les comportements changent.

Pour nous aider à rester au courant des nouvelles tendances ou des nuances culturelles, nous rencontrons chaque mois des universitaires et des experts sur le suicide et l’automutilation. Nous travaillons également avec l’organisation suédoise de la santé mentale, MIND, pour comprendre le rôle que la technologie et les médias sociaux ont dans la vie des jeunes. Au Royaume-Uni, nous travaillons avec les Samaritains sur un effort à l’échelle de l’industrie pour élaborer de nouvelles directives pour aider les personnes en détresse.

En dehors de l’Europe, nous disposons également de technologies supplémentaires qui nous aident à trouver de manière proactive des personnes qui pourraient être dans le besoin. Nous voulons apporter cela en Europe, mais il existe d’importantes considérations juridiques en vertu du droit de l’UE, nous travaillons donc avec notre régulateur européen.

Chaque fois que nous entendons parler de quelqu’un qui se fait du mal et qui peut avoir été influencé par ce qu’il a vu sur nos plateformes, nous nous rappelons les difficultés auxquelles de nombreux jeunes doivent faire face sur et hors ligne. Nous continuerons à travailler pour assurer la sécurité de tout le monde sur Instagram, tout en permettant aux gens d’accéder à un support qui peut faire la différence quand ils en ont le plus besoin.

Adam Mosseri, responsable d’Instagram



Selon communiqué de presse

Was this helpful?

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top