SHARE

La chasse aux trolls est ouverte. Cette variété de contributeurs adeptes de propos insultants ou haineux pollue les fils de discussion avec une ampleur qui met en péril le principe même des commentaires ouverts à tous. La plupart du temps cachés sous leurs pseudonymes, ces amateurs de vociférations numériques posent un problème de taille à tous les sites : comment éviter la surreprésentation des pires contributeurs, souvent les plus assidus, et les accusations de harcèlement qu’ils génèrent ?

Intelligence artificielle au service de la modération

Jusqu’à présent, cette tache de gardien du troupeau relevait des seuls modérateurs, chargés de vérifier l’acceptable et de bannir insultes et propos dégradants. Problème : les intervenants humains demandent, la plupart du temps, un salaire.

Pour contourner cette difficulté, la solution serait de confier à l’intelligence artificielle la gestion, et l’éviction, des mauvais coucheurs du Net. Une piste de recherche suivie de près par Google et son incubateur, Jigsaw.

Début février, l’émanation de Google, associée à Wikipedia, publiait les résultats d’une étude basée sur un échantillon de 100 000 commentaires postés sur l’encyclopédie en ligne,

Cette base de données, après études par des intervenants bien humains, a permis la création d’un algorithme nommé Perspective.

En ce basant sur cette étude quantitative, le programme devrait pouvoir, en autonomie, rejeter les posts les plus douteux, par exemple en contrôlant les quelque 25000 commentaires postés quotidiennement sur Wikipédia.

Plusieurs titres de presse, dont le Gardian, se sont déclarés intéressés par l’algorithme qui promet une productivité non humaine accrue et une efficacité plus grande. Le New York Time testerait le programme en open source. A l’heure actuelle, 18% seulement des attaques personnelles sont suivis d’un avertissement ou d’un blocage de l’utilisateur sur Wikipédia.

Les trolls passent encore à travers les mailles du filet

Pourtant, avant que l’algorithme parvienne à devenir vraiment efficace, il devra franchir un cap encore lointain : l’intelligence artificielle est encore incapable de saisir les subtilités du langage humain, et il n’est pas sur qu’il y parvienne réellement avant un bon moment. En effet, « cette technologie est loin d’être parfaite », admet Jared Cohen, le fondateur de Jigsaw.

Fonctionnant sur le principe des mots clés, le programme saisit mal les négations et, en général, une simple faute de frappe bien placée suffit pour tromper sa vigilance. Même avec ses capacités d’apprentissage autonome, se passer d’intervenants humains est pour l’instant hors de portée de Perspective.

On peut le déplorer, tant les trolls polluent le Net avec une constance que rien ne dément. Ou se réjouir qu’il subsiste encore un pré carré aux humains, celui du langage et de ses infinies variations. Si un jour prochain cette barrière tombe, les robots seront en mesure de censurer à juste titre, ou au titre décrété par ceux qui contrôlent l’algorithme. Débarrassés sans doute des trolls, nous le serions aussi de notre monopole langagier et, sans doute, de notre liberté d’expression.

LEAVE A REPLY

Please enter your comment!
Please enter your name here