"ВКонтакте" начала выявлять суицидальные фото с помощью нейросети
Во «ВКонтакте» разработали алгоритм для определения противоправного или «опасного» контента на фотографиях. Нейросеть распознает объекты на картинках, которые в итоге исключаются из поисковой выдачи и «умной» новостной ленты или полностью блокируются. Об этом пишет TJournal с ссылкой на газету «Известия».
Нейросеть определяет изображенные предметы и сущности, в том числе человека, ребенка, животное, растение, предметы одежды и символы «групп смерти». Как утверждается, записи и фото с суицидальным контентом удаляются автоматически, а страницы авторов блокируются.
Представители «ВКонтакте» рассказали, что нейросеть имеет несколько тысяч классов, которые присваиваются фотографиям — от 0 до 1 по нескольким параметрам. Если алгоритм характеризует фото как «опасное», оно отправляется модераторам для проверки. Если же фото признано «умеренно опасным», оно пропадает из поисковой выдачи, а в новостной ленте понижается его приоритет.
Руководитель направления Big Data и Machine Learning «ВКонтакте» Андрей Законов пояснил, что алгоритм тестируют на анализ текстовых записей на изображениях. По его словам, нейросеть обучили на основе жалоб пользователей.
Андрей Законов, руководитель направления Big Data и Machine Learning «ВКонтакте», пояснил, что нейросеть анализирует только изображения, загружаемые для общего доступа, то есть отправляемые фото в личных сообщениях не анализируются. С помощью этой технологии в будущем мы сможем бороться со спамом и мошенничеством.