La plateforme aux plus d’un milliard d’utilisateurs poursuit sa transformation radicale : TikTok licencie massivement ses modérateurs humains pour confier la surveillance des contenus à l’intelligence artificielle. Une décision qui, au-delà des enjeux technologiques, révèle une stratégie économique de réduction des coûts et une reconfiguration mondiale de ses centres de modération. Mais ce basculement vers l’IA soulève de vives inquiétudes sur la fiabilité et la sécurité numérique.
💼 L’emploi sacrifié sur l’autel des coûts
Selon une enquête du Financial Times, TikTok a annoncé à ses équipes de Londres son intention de supprimer plusieurs centaines de postes dédiés à la modération et à l’assurance qualité. Les 300 salariés concernés vérifiaient jusqu’ici que les contenus respectent les normes de sécurité. Dans un courriel interne daté du 22 août, l’entreprise a reconnu :
Nous envisageons de ne plus effectuer les tâches de modération et d’assurance qualité sur notre site de Londres.
Ce mouvement n’est pas isolé. En juillet 2025, l’ensemble de l’équipe néerlandaise de modération – environ 300 personnes – a été licencié, suivi de 150 suppressions de postes à Berlin au début d’août. D’après le Financial Times, l’objectif est de centraliser les opérations dans des pays jugés plus compétitifs, comme l’Irlande ou le Portugal, tout en réduisant les coûts fixes liés à la masse salariale en Europe.
Ce choix stratégique s’inscrit dans une réorganisation globale.
Nous poursuivons la réorganisation entamée l’an dernier afin de renforcer notre modèle opérationnel mondial en matière de confiance et de sécurité
a expliqué TikTok dans un message interne cité par le quotidien britannique.
🤖 Promesse d’efficacité ou pari risqué ?
Pour compenser la perte d’effectifs, TikTok mise sur des systèmes d’IA capables d’analyser automatiquement les contenus et d’éliminer ceux jugés problématiques. Une démarche qui permet de réduire considérablement les coûts opérationnels et d’accélérer les processus de modération.
Mais ce choix ne fait pas l’unanimité. Le syndicat allemand ver.di, qui représente une partie des salariés licenciés, dénonce un manque de fiabilité :
L’IA n’est pas en mesure d’identifier correctement des images ou vidéos complexes. C’est dangereux, car certains contenus circulent sans contrôle
a affirmé une porte-parole. Cette tendance dépasse le cadre de TikTok. Déjà au printemps, Meta (Facebook, Instagram, WhatsApp) avait amorcé une stratégie similaire, misant davantage sur les algorithmes que sur les équipes humaines. Pour les plateformes, le gain est clair : automatiser une tâche coûteuse et difficilement scalable. Mais pour les utilisateurs comme pour les annonceurs, la question reste brûlante : jusqu’où peut-on confier la sécurité numérique à des machines ?
👁️ L’œil de l’expert : le pari de l’IA
La bascule de TikTok illustre une dynamique de fond : la course à la rentabilité via l’automatisation. En réduisant les effectifs humains, la plateforme espère non seulement diminuer ses charges mais aussi accroître sa capacité de traitement face à un volume colossal de contenus. Pourtant, cette logique purement économique comporte un revers : si l’IA échoue à protéger efficacement les utilisateurs, la réputation et la valeur de TikTok pourraient en pâtir. Dans un marché où la confiance des utilisateurs est un actif stratégique, le pari de l’IA est autant un levier financier qu’un risque systémique.