Meta s’attaque au contenu nuisible via une nouvelle IA 

Meta s’attaque au contenu nuisible via une nouvelle IA 

Nul ne peut nier que 2021 a été cauchemardesque pour Meta (anciennement Facebook). Sauf que malgré un nombre intarissable de problèmes, liés au scandale de "Facebook Papers" et les informations divulguées par Frances Haugen, la panne mondiale qui a secoué les services de Meta et, en l’occurrence, leurs utilisateurs, la firme tient toujours à clôturer cette année sur une bonne note.  

Après un Rebranding spectaculaire, orchestré par Mark Zuckerberg, qui a lancé une nouvelle tendance technologique pour la prochaine décennie, le Metavers, Meta a accéléré la cadence, cette semaine, avec le lancement des modes éphémères de la messagerie qui varie entre 24h, 7 et 90 jours. Une annonce qui réjouira les 2 milliards d’utilisateurs actifs de la messagerie verte.

Quelques heures plus tard, c’est sur le blog officiel d’Instagram que le la nouvelle vient de tomber. Adam Mosseri, le directeur d’Instagram, a annoncé que la célèbre plate-forme de partage de photos lancera le contrôle parental ainsi que d’autres services dédiés à la protection des adolescents à partir de Mars 2022.

L’IA pour améliorer la modération sur Facebook et Instagram

Jamais deux nouvelles sans une troisième pour Meta! La firme de Zuckerberg a annoncé, aujourd’hui, la naissance d’une nouvelle Intelligence Artificielle qui s’ajoutera aux autres solutions destinées à l’amélioration de la modération de Facebook et Instagram. Baptisée "Few-Shot Learner" (apprentissage en quelques étapes), Cette nouvelle technologie d'IA sera déployée pour modérer et identifier plus rapidement les contenus préjudiciables sur les plateformes de Meta (Facebook et Instagram) et assurer la sécurité de leurs utilisateurs.

A la différence de ses prédécesseurs, cette nouvelle génération d’IA s'adapte pour agir sur des types de contenus nuisibles nouveaux ou en évolution, en quelques semaines seulement, contre quelques mois auparavant. Il fonctionne dans plus de 100 langues, apprend à partir de différents types de données (images et textes) et peut renforcer les modèles d'IA déjà déployés pour détecter d'autres types de contenus préjudiciables.

Votre commentaire