Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

L’expert de la modération en ligne, Bodyguard.ai, lève des fonds et renforce ses équipes pour continuer de protéger dans le Métavers

mars 2022 par Patrick LEBRETON

vec plus de 700 millions de personnes protégées à travers le monde, Bodyguard.ai, l’expert de la modération en ligne, souhaite renforcer sa présence dans le métavers pour s’inscrire dans la définition et la mise en place de la modération dans le Web 3.0. Pour cela, l’entreprise niçoise qui a ouvert 3 bureaux en France, un à Los Angeles et qui en prévoit un nouveau prochainement à Londres, s’attaque aux recrutements de talents pour doubler ses effectifs au cours de l’année 2022.

Bodyguard.ai, une technologie au service de l’humain

Depuis la création de son application grand public en 2018, Bodyguard.ai s’est imposée comme LA solution technologique capable de contrer le fléau que représente la haine en ligne. Tandis que 2021 marquait un tournant de son histoire avec le lancement d’une offre B2B destinée aux entreprises, Bodyguard.ai n’a depuis cessé de développer ses solutions jusqu’à obtenir la combinaison parfaite entre intelligence artificielle et finesse de l’esprit humain.

Avec une expertise linguistique, une analyse contextuelle poussée et des capacités technologiques permettant de modérer plus de 95% des contenus toxiques, en temps réel (moins de 200 millisecondes), l’intelligence artificielle développée par Bodyguard.ai ne laisse rien au hasard et s’attaque aux contenus haineux de type menaces, racisme, misogynie, insultes, moqueries sur le physique, LGBTQI+phobie, harcèlement moral et sexuel, mais aussi aux contenus polluants (spams, arnaques et publicités indésirables qui entravent la qualité des interactions).

Tandis que 40 % des utilisateurs se désengagent d’une communauté dès la première exposition à un contenu toxique, Bodyguard.ai est d’ores et déjà un allié incontournable pour une trentaine d’acteurs internationaux dans les secteurs des médias (Groupe M6, Brut, Konbini…), du divertissement (Jellysmack), du gaming (Powder) et du sport (Ligue de Football Professionnel).

Une feuille de route guidée par le Métavers…

Expert de la modération sur Twitter, Facebook, Twitch, YouTube et Instagram, Bodyguard.ai a un accès privilégié aux plateformes sociales pour une protection optimale. Désormais, avec la démocratisation grandissante du Métavers et la révolution qu’elle incarne pour nos usages numériques, Bodyguard.ai se tourne vers le Web 3.0 avec des enjeux technologiques majeurs.

En effet, dans une logique d’anticipation et de préparation à l’Internet du futur, Bodyguard.ai souhaite être le partenaire des entreprises d’aujourd’hui et de demain, soucieuses d’adopter les codes d’un métavers responsable et bienveillant. Fort de son portefeuille clients de renom et de l’intérêt de nombreux fonds d’investissement, Bodyguard.ai saisit cette nouvelle levée de fonds pour devenir la solution de modération pour le Métavers dans les 5 années à venir.

Cela se traduira notamment par :

 Le développement de la technologie Bodyguard.ai, outil de gestion de communauté doté d’un système de modération automatisé et personnalisé combiné à une analyse approfondie de la communauté.

 L’intégration dans sa technologie de contenus sonores, visuels et vidéos, en plus des contenus textuels déjà pris en charge.

 L’expansion internationale de Bodyguard.ai, notamment aux Etats-Unis et en Europe, avec l’ajout de langues supplémentaires à sa technologie.

Avec une équipe prête à combiner ses expertises autour de valeurs humaines et avec le soutien de business angels comme Mike Morhaime (Co-founder ex-Président de Blizzard Entertainment) ; Djamel Agaoua (ex-CEO de Viber), Adrien Montfort (CTO de Sorare) ; ou encore Rudy Gobert (3 fois NBA Defensive Player of the Year), Bodyguard.ai se positionne comme le dénominateur commun pour les passionnés d’innovation au service de la société.


Voir les articles précédents

    

Voir les articles suivants