TikTok прискорює створення нового процесу модерації — тепер усю роботу виконуватимуть автоматизовані системи.
Вони запрацюють у США та Канаді. Автоматично видалять відео з оголеним тілом, сексом, насильством, незаконною діяльністю та порушеннями політики безпеки. Якщо якесь відео, на думку його автора, буде видалено безпідставно, автор зможе звернутися до модератора-людини.
Причиною для такого рішення почасти стало обмеження “обсягу неприємних відео”, які модератори повинні переглядати. Завдяки автоматизації у модераторів буде більше часу на відео, які потребують опрацювання контексту для належного перегляду — наприклад, відео з дезінформацією.
Повідомляють, що модератори інших компаній, таких як Facebook, заробили симптоми, схожі на ПТСР, через ролики, які вони повинні були переглянути.
Проблема, з якою зіштовхнеться TikTok, полягає в тому, що автоматизовані системи ніколи не бувають досконалими, тому багато відео може бути видалено помилково.