mirror of
https://github.com/iftas-org/lote.git
synced 2025-04-21 07:23:44 +03:00
Delete dtsp-trust_safety_glossary_of_terms/fr directory
This commit is contained in:
parent
3852ca0c1f
commit
556aa362ed
|
@ -1,3 +0,0 @@
|
|||
Reprise de Compte
|
||||
|
||||
Scénario dans lequel une personne non autorisée prend le contrôle d'un compte d'utilisateur, par des moyens tels que le piratage, l'hameçonnage ou l'achat de données d'identification fuitées.
|
|
@ -1,3 +0,0 @@
|
|||
Astroturfing (contrefaçon d'opinion)
|
||||
|
||||
Activité organisée visant à créer l'apparence trompeuse d'un soutien ou d'une opposition populaire à une cause ou à une organisation donnée, alors qu'en réalité l'activité est motivée, financée ou coordonnée par une seule ou un petit nombre de sources occultes.
|
|
@ -1,5 +0,0 @@
|
|||
Action collective coordonnée
|
||||
|
||||
Activité en ligne de masse coordonnée, souvent planifiée à l'avance, visant à affecter un contenu, un compte, une communauté entière ou un forum de discussion.
|
||||
|
||||
Il peut s'agir par exemple de coordonner le vote à la hausse ou à la baisse d'un message pour en modifier la diffusion, de signaler en masse un compte (généralement à tort) afin d'inciter le fournisseur de services à le suspendre, ou encore d'inonder une entreprise de bonnes ou de mauvaises critiques.
|
|
@ -1,5 +0,0 @@
|
|||
Catfishing
|
||||
|
||||
Le scénario dans lequel quelqu'un crée une fausse identité en ligne, comme un réseau social ou une application de rencontres, et établit une relation avec quelqu'un qui croit que le personnage est réel.
|
||||
|
||||
Ce comportement est souvent associé à la fraude financière (« Pig Butchering ») et à d'autres formes d'exploitation de la victime.
|
|
@ -1,9 +0,0 @@
|
|||
Contenu pédopornographique (CSAM/CSEA)
|
||||
|
||||
Le CSAM (« Child Sexual Abuse Material ») est du contenu (images ou vidéos) qui montre une personne mineure impliquée ou décrite comme engagée dans une activité sexuelle explicite. Le CSEA ( «Child Sexual Exploitation and Abuse » ) est une catégorie plus large qui englobe le CSAM, tout contenu pédopornographique, et inclut le grooming (séduction malintentionnée des enfants).
|
||||
|
||||
Le terme « Imagerie simulée d'exploitation sexuelle et abus de mineurs » (Simulated Child Sexual Exploitation and Abuse Imagery) recouvre toute représentation de mineur, fictive ou modifiée, à caractère pornographique, sans la participation directe d'un mineur.
|
||||
|
||||
Les experts, les groupes de survivants et les professionnels découragent l'utilisation des termes « pornographie juvénile » ou « pornographie infantile », encore utilisés dans de multiples juridictions et traités internationaux.
|
||||
|
||||
Le CSAM est illégal dans presque toutes les juridictions, ce qui fait de sa détection et de sa suppression une priorité élevée pour les services en ligne.
|
|
@ -1,3 +0,0 @@
|
|||
Risques liés au contenu et/ou au comportement en ligne
|
||||
|
||||
C'est la possibilité que certains contenus ou comportements en ligne soient illégaux, dangereux ou préjudiciables par ailleurs, y compris aux droits de la personne, et sont par conséquent interdits par les politiques et conditions d'utilisation du service en ligne.
|
|
@ -1,9 +0,0 @@
|
|||
Action coordonnée non spontanée
|
||||
|
||||
Activité en ligne organisée où un compte ou un ensemble de comptes, y compris des faux comptes secondaires (créés uniquement ou principalement pour de telles interactions), agissent pour induire en erreur ou pour augmenter frauduleusement la popularité ou la visibilité d'un contenu ou d'un compte, par exemple en suivant un compte en masse pour augmenter son influence.
|
||||
|
||||
Dans certains cas, c'est une source ou organisation unique occulte qui déploie de nombreux faux comptes afin de créer l'illusion d'une activité authentique et crédible.
|
||||
|
||||
Dans d'autres cas, ce sont des personnes utilisant leur propre compte qui se coordonnent en ligne avec l'objectif de créer une apparence trompeuse, comme par exemple qu'une opinion ou une croyance est plus répandue qu'elle ne l'est en réalité, ou pour répandre largement un élément ou un type de contenu particulier.
|
||||
|
||||
Ces actions sont parfois appelées « manipulation de contenu » ou « manipulation de la plateforme ».
|
|
@ -1,9 +0,0 @@
|
|||
Violation du droit d'auteur
|
||||
|
||||
Il s'agit de l'utilisation de matériel protégé par la loi sur le droit d’auteur (tel que du texte, une image ou une vidéo) d’une manière qui viole les droits du titulaire du droit d’auteur, sans son autorisation, et sans que ne s'applique une exception ou une limitation au droit d’auteur.
|
||||
|
||||
Cela peut inclure la création de copies, la distribution, l'affichage ou l'exécution publique d'une œuvre couverte, ou la création non autorisée d'œuvres dérivées.
|
||||
|
||||
La violation peut impliquer une responsabilité principale (pour la personne qui a commis le comportement incriminé) ou une responsabilité secondaire pour d'autres personnes impliquées dans ce comportement (comme une société d'hébergement dont le service héberge des images publiées par un utilisateur).
|
||||
|
||||
Aux États-Unis, les services d'hébergement de contenus numériques générés par les utilisateurs sont exemptés de responsabilité en matière de droits d'auteur, en vertu de l'article 512 de la loi sur les droits d'auteur, à condition qu'ils se conforment aux procédures applicables de notification et de retrait énoncées dans cette loi.
|
|
@ -1,5 +0,0 @@
|
|||
Contrefaçon
|
||||
|
||||
La fabrication ou la vente non autorisée de marchandises ou de services imitant une marque commerciale, ce qui crée une confusion chez le consommateur.
|
||||
|
||||
La fabrication ou la vente de produits de contrefaçon est une infraction au droit à la propriété intellectuelle, et le risque de voir leur responsabilité engagée est un souci pour les sites marchands en ligne.
|
|
@ -1,9 +0,0 @@
|
|||
Contenu Abusif Multiplateforme
|
||||
|
||||
C'est quand une ou plusieurs personnes mal intentionnées déploient une campagne abusive (telle que du harcèlement, du trolling ou de la désinformation) sur de multiples services en ligne.
|
||||
|
||||
Cela a pour effet de rendre la suppression du contenu abusif plus difficile et plus longue pour les personnes concernées, car elles devront se communiquer avec chaque service séparément et leur expliquer la situation.
|
||||
|
||||
Parfois, c'est le même contenu qui est posté sur plusieurs plateformes. Dans d'autres cas, les agresseurs répartissent le contenu ou le comportement abusif sur différentes plateformes, de telle sorte qu'aucun site en particulier ne possède l'intégralité de l'abus. Par conséquent, si un service limite son enquête uniquement au contenu ou à la conduite sur son site, comme il lui manque le contexte global de la campagne abusive, il pourrait conclure qu'aucune violation n'a eu lieu.
|
||||
|
||||
Généralement, une telle situation nécessite une recherche sur plusieurs services, une intégration multiplateforme de données et une enquête sur le contexte des agresseurs et des personnes affectées, si l'on veut évaluer correctement la situation et réagir de manière appropriée.
|
|
@ -1,11 +0,0 @@
|
|||
Diffamation
|
||||
|
||||
La diffamation est un abus réprimé par le Droit. Il s'agit d'une affirmation publique à propos d'une personne, qui nuit à sa réputation (les régimes juridiques et les modes de défense varient selon les juridictions).
|
||||
|
||||
La diffamation peut être commise par divers médias, y compris visuellement, oralement, par des images ou par du texte.
|
||||
|
||||
Aux États-Unis, selon la jurisprudence du Premier amendement, c'est à la personne qui prétend avoir été diffamée qu'incombe la charge de la preuve.
|
||||
|
||||
Dans d'autres juridictions, telles que l'Europe, c'est à la personne accusée de prouver qu'elle n'a pas commis de diffamation.
|
||||
|
||||
Ces différences d'approches juridiques et de niveaux de risque juridique qui en découlent peuvent influer sur les processus d'élimination de contenu dans les litiges pour diffamation adoptés par les services en ligne de différents pays.
|
|
@ -1,5 +0,0 @@
|
|||
Déshumanisation
|
||||
|
||||
Décrire des personnes de manière à nier ou à diminuer leur humanité, par exemple comparer un groupe donné à des insectes, à des animaux ou à des maladies.
|
||||
|
||||
Certains experts dans ce domaine considèrent le discours déshumanisant comme un précurseur possible à la violence (parfois au point de génocide), parce qu'il peut faire paraître appropriée ou justifiée une action violente contre des cibles « non humaines » ou « moins humaines ».
|
|
@ -1,5 +0,0 @@
|
|||
Désinformation
|
||||
|
||||
C'est la diffusion délibérée et mal-intentionnée de fausses informations, dans le but de créer de la confusion, d'engendrer de la méfiance et potentiellement de saper les institutions politiques et sociales.
|
||||
|
||||
Les chercheurs distinguent une autre catégorie d'information trompeuse, l'information malveillante. Elle est basée sur la réalité mais le contexte dans lequel elle est présentée est modifié, afin de nuire à une personne, à une organisation ou à un pays.
|
|
@ -1,7 +0,0 @@
|
|||
Doxing
|
||||
|
||||
L'acte de divulguer les informations privées d'une personne — comme son vrai nom, son adresse, son numéro de téléphone ou toute autre donnée qui pourrait permettre de l'identifier — dans un forum en ligne ou tout autre espace public, sans le consentement de la personne.
|
||||
|
||||
Le doxing peut mener à des menaces réelles contre la personne dont les informations ont été diffusées, et pour cette raison, il est souvent considéré comme une forme de cyberharcèlement.
|
||||
|
||||
Certains services en ligne peuvent considérer que l'agrégation et la divulgation d'informations publiques sur une personne, dans un contexte menaçant, sont suffisants pour pouvoir être qualifiés de doxing.
|
|
@ -1,7 +0,0 @@
|
|||
Fermes de Contenus
|
||||
|
||||
Les fermes de contenus sont des sites créés dans le but principal et parfois unique d'attirer des vues et de générer des revenus publicitaires, plutôt que par désir de diffuser un contenu en particulier.
|
||||
|
||||
Ces fermes de contenu créent souvent leur contenu selon les requêtes de recherche les plus populaires (une pratique connue sous le nom d'« optimisation des moteurs de recherche ») afin de se classer plus haut dans les résultats des moteurs de recherche. Le contenu de ces sites est généralement de faible qualité, voire du spam, mais peut toutefois être rentable en raison de l'utilisation stratégique de certains mots clés pour manipuler les algorithmes des moteurs de recherche et conduire les utilisateurs à naviguer sur une page, permettant ainsi de « récolter des clics » pour les revenus publicitaires.
|
||||
|
||||
Les fermes de contenus commencent généralement par créer des comptes sur des services en ligne, comptes qu'elles utilisent initialement de manière apparemment inoffensive afin de se construire une base d'abonnés, de laisser vieillir le compte, et de créer un historique, tout cela afin que le compte paraisse authentique et crédible, avant de l'utiliser pour poster du spam, de la désinformation ou tout autre contenu abusif, ou bien de le vendre à ceux qui vont l'exploiter à ces fins.
|
|
@ -1,5 +0,0 @@
|
|||
Glorification de la violence
|
||||
|
||||
Il s'agit de déclarations ou d'images qui célèbrent des actes de violence, du passé ou à venir.
|
||||
|
||||
Certains services en ligne restreignent ou interdisent la glorification de la violence (y compris le terrorisme) car ils considèrent qu'elle peut inciter à de futurs actes de violence ou à les intensifier, et qu'elle favorise un environnement en ligne menaçant ou dangereux. Mais il peut être difficile de déterminer ce qui constitue de la glorification dans la discussion d'un thème en particulier.
|
|
@ -1,5 +0,0 @@
|
|||
Discours de haine
|
||||
|
||||
Contenu ou comportement abusif, haineux ou menaçant qui exprime un préjugé à l'égard d'une personne ou d'un groupe en raison de leur appartenance à un groupe, qui se fonde sur des caractéristiques juridiquement protégées, telles que la religion, l'origine ethnique, la nationalité, la race, le genre, l'orientation sexuelle ou autres.
|
||||
|
||||
Il n'existe pas de définition juridique internationale du discours de haine.
|
|
@ -1,5 +0,0 @@
|
|||
Usurpation d'identité
|
||||
|
||||
L’usurpation d’identité en ligne désigne généralement la création d’un faux profil qui utilise le nom, l’image, la ressemblance ou autres caractéristiques d'une autre personne sans son autorisation, afin de créer l'impression fausse ou trompeuse que le compte est contrôlé par elle.
|
||||
|
||||
Aussi connu sous le nom de « compte imposteur ».
|
|
@ -1,3 +0,0 @@
|
|||
Incitation à la violence
|
||||
|
||||
Cela consiste à pousser à la violence ou à la haine à l'égard d'une personne ou d'un groupe.
|
|
@ -1,13 +0,0 @@
|
|||
# Introduction
|
||||
Au fur et à mesure que le domaine « Confiance et Sécurité » gagne en importance, en complexité, et en nombre d'affiliés — il devient de plus en plus important de s'assurer qu'il existe une compréhension commune des termes clés utilisés par les personnes qui veillent à la sécurité des utilisateurs des services numériques.
|
||||
|
||||
Les entreprises ont depuis longtemps recours à une combinaison de personnes, de procédés et de technologies pour traiter les risques liés aux contenus et aux comportements en ligne. Mais ce domaine, à l'instar d'autres spécialisations technologiques telles que la cybersécurité et la protection de la vie privée, atteint maintenant un point critique où il commence à se formaliser, à mûrir et à prendre conscience de lui-même. Des discussions importantes ont lieu partout dans le monde, dans les foyers, les centres éducatifs, les entreprises et à tous les niveaux de gouvernement, sur ce à quoi devrait ressembler les services de « Confiance et Sécurité » pour servir au mieux différentes sociétés et leur relation, en constante évolution, avec Internet. Mais le manque d'un lexique commun a parfois limité les discussions significatives.
|
||||
|
||||
Au cours de l'année écoulée, le Digital Trust & Safety Partnership (DTSP) a travaillé à rédiger le premier glossaire professionnel de la Modération en Ligne. Après une consultation publique, durant laquelle le DTSP a reçu de précieuses contributions de la part de différentes parties prenantes, dont des organisations universitaires, des partenaires de cette branche, des régulateurs et d'autres organismes du monde entier, nous publions la première édition de ce glossaire.
|
||||
Dirigé par Alex Feerst, co-fondateur de DTSP (Digital Trust & Safety Partnership), ce glossaire a les objectifs suivants :
|
||||
|
||||
1. Contribuer à professionnaliser ce domaine et soutenir les équipes néophytes de Modération en Ligne lors de la structuration de leurs opérations,
|
||||
2. Encourager l'adoption d'interprétations communes pour des termes essentiels dans ce domaine,
|
||||
3. Faciliter un dialogue éclairé entre les professionnels de la Modération en Ligne, les décideurs, les législateurs et le grand public.
|
||||
|
||||
Le but de cette première édition a été de décrire comment des termes clés sont utilisés par les gens qui travaillent dans ce domaine. Ce ne sont pas des définitions légales, et leur publication n'implique pas que chaque société partenaire du DTSP soit entièrement d'accord avec chaque terme tel que défini ici.
|
|
@ -1,5 +0,0 @@
|
|||
Mésinformation
|
||||
|
||||
Il s'agit d'informations fausses diffusées de bonne foi et généralement sans intention malveillante, mais qui peuvent néanmoins induire en erreur, voire causer du tort.
|
||||
|
||||
La malinformation est une autre catégorie de manipulation de l'information identifiée par les chercheurs ; ce sont de vraies informations mais divulguées dans le but de nuire à une personne, à une organisation ou à un pays, en en modifiant le contexte.
|
|
@ -1,9 +0,0 @@
|
|||
Cyberharcèlement
|
||||
|
||||
Ce sont des messages répétés non sollicités envoyés à une personne, généralement dans l'intention de l'intimider ou de provoquer de la détresse émotionnelle.
|
||||
|
||||
Le cyberharcèlement peut se produire sur de nombreux supports (y compris les courriels, les réseaux sociaux et autres services en ligne).
|
||||
|
||||
Il peut s'étendre jusqu'à inclure du harcèlement dans le monde réel, ou à l'inverse, l'activité hors ligne peut passer en ligne.
|
||||
|
||||
Le cyberharcèlement peut être commis par un seul agresseur contre une personne ou contre un groupe, avec qui il soutient un contact malveillant, ou bien il peut prendre la forme de plusieurs personnes distinctes ciblant un individu ou un groupe.
|
|
@ -1,3 +0,0 @@
|
|||
Abus de service
|
||||
|
||||
Utilisation d'un réseau, d'un produit ou d'un service en violation des conditions générales d'utilisation du fournisseur, des lignes directrices de la communauté ou d'autres règles. L'utilisation est qualifiée comme abusive généralement parce qu'elle crée ou augmente le risque de préjudice à autrui ou tend à miner le but, ou la qualité du service.
|
|
@ -1,3 +0,0 @@
|
|||
Faux comptes
|
||||
|
||||
De multiples comptes factices (« sock puppets ») utilisés pour créer une illusion de consensus ou de popularité, par exemple en likant ou en repostant des contenus afin de les amplifier.
|
|
@ -1,3 +0,0 @@
|
|||
Spam
|
||||
|
||||
Ce sont des messages non sollicités et de basse qualité, souvent (mais pas nécessairement) envoyés massivement à des fins publicitaires par le biais de divers médias électroniques, y compris le courriel, la messagerie et les réseaux sociaux.
|
|
@ -1,11 +0,0 @@
|
|||
Médias synthétiques
|
||||
|
||||
Il s'agit de contenu qui a été généré ou manipulé pour apparaître authentique, alors qu'il est en fait artificiel. On parle aussi de médias manipulés.
|
||||
|
||||
Les médias synthétiques sont parfois (mais pas toujours) générés par des processus algorithmiques (comme l'intelligence artificielle générative ou l'apprentissage automatique).
|
||||
|
||||
Un deepfake est une forme de média synthétique où l'image ou l'enregistrement d'une personne est altéré pour le représenter faisant ou disant quelque chose qui n'a pas été fait ou dit en réalité.
|
||||
|
||||
Les médias synthétiques ou manipulés (y compris les deepfakes) peuvent être utilisés à des fins malveillantes, pour tromper ou pour nuire à certaines personnes, en leur faisant dire des choses qu'elles n'ont jamais dites, ou effectuer des actions qu'elles n'ont pas commises (comme dans le cas de "Synthetic Non-Consensual Exploitative Images", hypertrucages non-consensuels).
|
||||
|
||||
Les médias synthétiques peuvent également être utilisés pour décrire des événements qui ne se sont pas produits.
|
|
@ -1,9 +0,0 @@
|
|||
Contenus à caractère terroriste ou propagande extrémiste et violente
|
||||
|
||||
C'est du contenu qui soutient ou qui est produit par des groupes qui s'identifient comme terroristes ou violents, ou qui ont été désignés comme tels, ainsi que du contenu qui promeut des actes de terrorisme ou d'extrémisme violent.
|
||||
|
||||
Il n'existe pas de définition internationale du terrorisme ou de l'extrémisme violent, et les définitions de ces termes varient considérablement d'un pays à l'autre.
|
||||
|
||||
Les approches pour définir cette catégorie incluent des cadres acteur-comportement, et afin de détecter et de supprimer ce contenu, les services en ligne peuvent s'appuyer sur des recherches et des listes d'organisations terroristes ou extrémistes créées par des organismes spécialisés en la matière, comme la liste des entités sanctionnées du Conseil de sécurité des Nations Unies.
|
||||
|
||||
Les contenus à caractère terroriste sont de plus en plus au centre des préoccupations des législateurs et des organismes de réglementation, soucieux d'empêcher leur diffusion.
|
|
@ -1,5 +0,0 @@
|
|||
Troll
|
||||
|
||||
Un troll est un utilisateur qui publie des propos provocants ou qui sèment la confusion.
|
||||
|
||||
Il n'est pas toujours aisé de distinguer un comportement de troll d'une critique légitime. Un troll peut faire des remarques pertinentes, mais généralement il le fait dans l'intention d'agacer.
|
|
@ -1,7 +0,0 @@
|
|||
Menace physique
|
||||
|
||||
Une déclaration ou toute autre communication qui exprime l'intention d'infliger des dommages physiques à une personne ou à un groupe de personnes.
|
||||
|
||||
Les menaces peuvent être directes, telles que des menaces de mort ou de mutilation ; elles peuvent aussi être sous-entendues, par une métaphore, une analogie ou toute autre rhétorique qui permet à son auteur de nier le sens ou l'intention véritable.
|
||||
|
||||
Le message de menace se recoupe parfois avec l'incitation à la violence, quand par exemple un message public affirme qu'une personne mérite d'être blessée, ou encourage les autres à cela.
|
Loading…
Reference in a new issue