HTCinside
Pour contrer la prolifération decontrefaçons profondes, Microsoft a publié un nouvel outil d'authentification vidéo qui peut être utilisé pour analyser une image fixe ou une vidéo afin de déterminer un pourcentage de probabilité qu'un support ait été artificiellement manipulé.
Dans le cas d'une vidéo, Microsoft a déclaré que ce pourcentage pouvait être fourni en temps réel pour chaque image pendant la lecture de la vidéo. Détecte la ligne de mélange d'éléments profonds et subtils en niveaux de gris ou en fondu qui peuvent ne pas être visibles à l'œil humain.
Les deepfakes ou médias synthétiques peuvent être des photos, des vidéos ou des fichiers audio manipulés par l'intelligence artificielle (IA). La détection des contrefaçons profondes est vitale pour les prochaines élections américaines, selon Microsoft.
La technologie a été créée à l'aide d'un ensemble de données public de Face Forensic ++. Microsoft a déclaré qu'il avait été testé avec l'ensemble de données DeepFake Detection Challenge, qui serait le modèle principal. former et tester les technologies de détection des contrefaçons entrantes.
« Nous prévoyons que les méthodes de génération de médias synthétiques continueront de gagner en complexité. Étant donné que toutes les méthodes de détection d'IA ont des taux d'erreur, nous devons comprendre et être prêts à réagir aux contrefaçons profondément enracinées qui passent par les méthodes de détection. a déclaré la société dans un article de blog.
'A long terme, nous devons donc rechercher des moyens plus solides de maintenir et de certifier l'authenticité des articles de presse et des autres médias.'
Avec quelques outils disponibles, Microsoft a également introduit une nouvelle technologie capable de détecter le contenu falsifié et de garantir que le média que vous regardez est authentique.
La technologie se compose de deux composants. Le premier est un outil intégré à Microsoft Azure qui permet à un producteur de contenu d'ajouter des hachages numériques et des certificats au contenu.
'Les hachages et les certificats vivent avec le contenu sous forme de métadonnées, où qu'il soit en ligne', a déclaré Microsoft.
Le second est un lecteur qui peut être inclus dans une extension de navigateur qui vérifie les certificats et compare les hachages aux correspondances pour déterminer l'authenticité.
Microsoft s'est également associé à la AI Foundation dans sa bataille fictive profonde. Dans le cadre de ce partenariat, les deux parties fourniront des authentificateurs vidéo aux organisations impliquées dans le processus démocratique, y compris les organes de presse et les campagnes politiques, par le biais de l'initiative Reality Defender 2020 de la fondation.
L'authentificateur vidéo ne sera initialement disponible que dans le cadre de l'initiative.
Un autre partenariat avec un consortium d'entreprises de médias connu sous le nom de Project Origin teste la technologie d'authenticité de Microsoft. Une initiative de plusieurs éditeurs et sociétés de médias sociaux, la Trusted News Initiative, a également accepté de travailler avec Microsoft pour tester leur technologie.
L'Université de Washington, In-House Counterfeit Detection Sensitivity et USA Today se sont également associés à Microsoft pour améliorer l'éducation aux médias.
'En améliorant l'éducation aux médias, les gens peuvent éliminer la désinformation basée sur des événements réels et gérer les risques de contrefaçons bon marché et profondes', a déclaré Microsoft. « Connaître les médias peut nous permettre à tous de réfléchir de manière critique au contexte médiatique et de devenir des citoyens plus engagés tout en appréciant la satire et la parodie.
Dans le cadre de ce partenariat, il y aura une campagne d'annonces d'intérêt public qui invitera les gens à « faire une pause pour réfléchir » et à vérifier que l'information provient d'un organe de presse réputé avant de la partager ou de la promouvoir. sur les réseaux sociaux avant les élections.
Les partis ont également lancé un questionnaire destiné aux électeurs américains pour en savoir plus sur les médias synthétiques.