La technologie peut-elle résoudre le faux problème d’actualités qu’elle a contribué à créer?
La technologie combine logiquement l’intelligence humaine et l’apprentissage automatique pour identifier les préjugés et la désinformation dans les reportages
La technologie a pris une grande partie du blâme pour l’augmentation avouée des fausses nouvelles, mais la startup britannique croit logiquement que la technologie peut également atténuer les dommages.
La plate-forme ingest des nouvelles à travers l’éventail politique des médias traditionnels et utilise l’apprentissage automatique pour identifier les préjugés et la désinformation.
« Il y a des choses qui indiquent si un article est moins susceptible d’être crédible pour une raison quelconque, que ce soit la source ou le contenu de l’article lui-même », a déclaré à Techworld le fondateur de Logical, Lyric Jain .
« Nous avons des mécanismes en place pour essayer de détecter pourquoi ils ne sont pas crédibles, et sur le front des biais, nous avons des moyens de vérifier quand les commentaires est préférentiel d’un côté ou de l’autre.
« Ce sont les deux choses principales que nous pouvons faire et nous les appliquons dans une plate-forme consommateur-média et aussi dans la construction d’ outils pour les journalistes et les organes d’information. »
Une histoire de réinterprétation de la réalité
De fausses nouvelles peuvent être récemment devenues un mot à la mode, mais le problème est aussi vieux que les nouvelles elles-mêmes.
Les créateurs et diffuseurs d’ informations ont toujours manoeuvré le public pour soutenir leurs points de vue à travers des interprétations biaisées sinon carrément mensonges puisque les crieurs publics ont fait des annonces publiques dans les rues.
Ce qui a changé depuis, c’est la technologie qui génère de nouvelles histoires et les diffuse ensuite à travers les canaux numériques grâce à des influences ciblées.
Alors que le légendaire magnat du journal William Randolph Hearst s’est appuyé sur l’imprimerie et le facteur pour obtenir le soutien de la guerre hispano-américaine en 1898, les fournisseurs actuels de désinformation ont à leur disposition une série d’outils numériques puissants et abordables.
Ils comprennent des analyses de données qui permettent d’identifier le contenu qui a le plus d’impact, une analyse psychométrique ciblant les consommateurs les plus sensibles et des bots capables de diffuser le contenu sur toute une gamme de plateformes de médias sociaux.
Cela crée ce que Jain appelle une «sérendipité artificiellement machinée», dans laquelle des nouvelles qui semblent apparaître par hasard émergent en réalité en raison d’un biais de confirmation qui restreint la perspective des points de vue et des sources.
Jain a d’abord observé les effets pendant les jours grisants de la préparation du vote Brexit, lorsque les biais des médias et les chambres d’écho ont eu un impact crucial sur l’opinion publique.
« J’ai remarqué que beaucoup de mes amis étaient d’un côté du débat et qu’ils consommaient des informations provenant de certaines sources, et les autres de l’autre côté avaient des points de discussion complètement différents », dit-il.
Quand ses études pour une maîtrise en ingénierie l’ont emmené de l’Université de Cambridge au MIT pour une année d’échange, Jain a été exposé à l’ apprentissage automatique technologie qui pourrait transformer son idée en un produit.
« J’ai été exposé à ces modèles qui pourraient facilement être appliqués avec quelques modifications au contexte de l’information », dit-il. « C’est à ce moment-là que j’ai pensé pouvoir faire quelque chose en utilisant la technologie, et quand je pense que l’ entreprise en fait devenu viable. »
Il a décidé de recruter une équipe qui pourrait construire et tester ces modèles et les transformer en un produit de vérification des nouvelles.
Comment identifier logiquement la désinformation
La plate-forme qu’ils ont développée incorpore une variété de mécanismes qui évaluent la crédibilité et la partialité du contenu des nouvelles et de sa source.
Combine logiquement des modèles d’apprentissage automatique avec un contrôle humain pour analyser trois aspects d’une histoire: ses métadonnées, la diffusion du réseau et le texte de l’article.
Il peut analyser les métadonnées d’un article pour identifier à quelle vitesse il est apparu après que l’histoire a éclaté, à quelle fréquence l’article est utilisé comme référence à l’histoire, et l’expertise de domaine détenue par l’auteur ou l’éditeur.
La plate-forme examine également comment une histoire se propage.
« Il y a certaines personnes sur Twitter qui sont plus susceptibles de partager des informations erronées que d’autres », dit Jain.
« Nous sommes en mesure de découvrir qui sont ces personnes susceptibles d’être. Si ces personnes ont tendance à partager une information particulière plus que d’autres, c’est un signal qui indique que l’information est susceptible d’être crédible. »
Pour détecter le biais et la crédibilité du texte lui-même, Logiquement l’exécute à travers un détecteur logique fallacy qui identifie si un argument est manquant des détails cruciaux, ou s’il contient des informations qu’il estime être une distraction.
Il vérifie la véracité de l’histoire sous-jacente grâce à une combinaison de vérifications de faits automatisées et manuelles en utilisant les organisations de vérification des faits existantes et une équipe interne de vérificateurs de faits humains.
Cela permet à la plate-forme de couvrir à la fois les demandes déjà évaluées et d’en signaler de nouvelles qui contredisent les informations contenues dans sa base de connaissances.
Il utilise le traitement du langage naturel et l’apprentissage automatique pour analyser la véracité d’un article et d’une couche supplémentaire d’infrastructure humaine afin d’affiner la précision des modèles et de fournir des annotations expertes sur un sujet donné.
Le concept consiste à intégrer la surveillance humaine au sein de l’intelligence artificielle afin de maximiser la valeur des capacités de la technologie.
Nouvelles est attribué un score de crédibilité et classé sur le site en conséquence.
« L’information crédible apparaît en haut », explique Jain. « Tous les faits apparaissent et les citations que les gens ont fait apparaître au sommet de toute histoire, et ensuite différentes perspectives de l’autre côté du spectre politique apparaissent plus bas, juxtaposés les uns aux autres, les utilisateurs peuvent ainsi comparer ce que dit l’un ou l’autre.
« Il y aura aussi un élément où si ils trouvent une information non sur notre site Web, ils peuvent simplement entrer le lien ou le texte et nous commenterons la véracité du commentaire qu’ils ont trouvé. »
Les gouvernements peuvent-ils combattre les fausses nouvelles de l’avenir?
Une autre façon d’aborder le problème est la réglementation. Les gouvernements du monde entier sont en train d’élaborer des normes de publication que les plateformes telles que Facebook et Twitter doivent respecter.
Toute réglementation devra équilibrer les normes de vérité contre la liberté d’expression et faire en sorte que les voix dissidentes ne soient pas censurées par les plates-formes pour des raisons politiques dans la crainte d’amendes imposées par un gouvernement. Le succès de leurs efforts ne peut être évalué qu’après la fin de la prochaine série d’élections majeures.
« Il y a un risque que la situation dans son ensemble devienne de plus en plus politisée et qu’il faille faire preuve de prudence, mais il faut aussi agir assez rapidement », dit Jain.
Les technologies émergentes telles que la technologie de synchronisation labiale automatique et le remplacement de visages alimenté par l’IA vont introduire des menaces encore plus grandes lors des prochaines élections.
« Ils utilisent des technologies similaires que les studios Hollywood dépensent des millions pour essayer de développer des effets spéciaux, mais la prolifération de cette technologie et la facilité de la construction signifie que tout le monde peut le faire à partir de leur chambre », explique Jain.
« En ce moment, c’est plutôt une course aux armements, avec les gens qui veulent promouvoir la désinformation d’un côté et les gens qui veulent la détecter de l’autre côté.
« Ceux qui veulent le détecter sont équipés de meilleures ressources et cela leur permet de le détecter pour l’instant, mais il s’agit d’essayer de garder ce côté bien financé et équipé de compétences pour que cette tendance continue. »