У соцмережі Facebook тестують програму для запобігання конфліктів у коментарях

0
34

Штучний інтелект почне позначати образливі коментарі, що розміщуються в спільнотах в соціальній мережі Facebook. Передбачається, що завдяки цій програмі можна буде спростити роботу адміністраторів груп, повідомляє CNN. В результаті користувачі, які відповідають за модерацію сторінок, отримуватимуть повідомлення про можливий конфлікт серед передплатників.

Записи з неприйнятною лексикою в групах отримають плашки «moderation alert» ( «оповіщення модератора»).

З новим способом маркування та оповіщення стане можливим своєчасно приймати необхідні дії для локалізації конфлікту в мережі. Однак нові обмеження не можна буде застосувати до таких тем, як вакцинація, політика, а також культурні відмінності.

Програмний інструмент, як вважають в Facebook, стане в нагоді 70 мільйонам користувачів, керуючим сторінками. Після того, як адміністратор дізнається про конфлікт, він зможе уповільнити дискусію.