Кто выиграет войну с токсичными людьми в интернете

Источник материала:  
05.02.2019 18:42 — Разное
Кто выиграет войну с токсичными людьми в интернете

фото: lenta.ru

Интернет как свободная зона давно превратился в сосредоточение токсичной ругани и издевательств. Это неудивительно — на самом деле на выражение своей точки зрения решаются немногие люди, и большинство из них придерживается радикальных взглядов

Что делать, чтобы интернет перестал быть настолько угрожающим, и почему он стал таким — в материале Ленты.ру.

В последние годы токсичность стала почти синонимом интернета. В понимании современного пользователя сети этот термин неразрывно связан с ненавистью, издевательствами и травлей. И, в отличие от реального мира, с этим можно столкнуться буквально на каждой площадке в сети.

Одна из самых популярных и спорных платформ в этом вопросе — Twitter — привлекла для поиска хоть какого-то решения сотрудников нескольких университетов. Они занялись проявлением феномена под названием «эхо-камеры» — понятие, согласно которому идеи и убеждения находят подтверждение и усиливаются внутри закрытых групп. По мнению ученых, именно это явление может «усилить враждебность и вызвать негодование по отношению к тем, кто не в контексте закрытого разговора». На данный момент специалисты пытаются понять, осознают ли сами пользователи, что находятся в замкнутом круге общения.

Еще одна исследовательская группа занимается изучением позитивных разговоров и случаев, когда юзеры помогают друг другу и поддерживают. Именно эти случаи ученые хотят взять за основу стандарта «здорового» Twitter. Ученые уверены, что один из лучших способов замедлить распространение предрассудков и остановить дискриминацию — общение между людьми из разных слоев общества. На данный момент специалисты только пытаются понять, как это знание можно применить к интернет-пространству.

Сама администрация Twitter, как, впрочем, и многие технологические гиганты, признает — бороться с распространением негативного контента с помощью привычных систем фильтрации невозможно. Искусственный интеллект не способен отличить шутку или игру слов от настоящего оскорбления, а «живые» модераторы не справляются с такой задачей ни физически, ни морально. Показательный пример — бывший сотрудник Facebook Селена Скола. Спустя восемь месяцев работы в команде Facebook у девушки развилось посттравматическое стрессовое расстройство психики.

Инициатива наказуема

В конце 2016 года администраторы крупнейшего имиджборда Reddit удалили ветку обсуждения, посвященную Pizzagate. Согласно этой конспирологической теории, сторонники Хиллари Клинтон и она сама связаны с преступным бизнесом по торговле людьми. Поводом для таких суждений стали переписки представителей политической элиты США, опубликованные на портале WikiLeaks: юзерам показались подозрительными упоминания в них хот-догов, пасты, пиццы и сыра. В итоге они решили, что перед ними — секретный код педофилов, которые держали маленьких детей в притоне, оборудованном в подвале вашингтонской пиццерии Comet Ping Pong.

Участники обсуждения оскорбляли фигурантов переписки и друг друга, фантазировали об интимных подробностях и даже публиковали личные телефонные номера и адреса своих врагов, чтобы натравить на них недовольных.

До этого руководитель Reddit Стив Хаффман говорил, что его детище — оплот абсолютной свободы, раскрывающий «самые лучшие и худшие, самые настоящие и самые странные стороны человечества». Однако агрессивное обсуждение Pizzagate, привлекшее за 15 дней 20 тысяч подписчиков, вывело его из себя. Сообщество было заблокировано. Спустя несколько дней после этого один из сторонников теории, вооруженный винтовкой, попытался «самостоятельно исследовать» детскую темницу в Comet Ping Pong. Подвала в пиццерии не оказалось.

Столь радикальное решение площадки только раззадорило любителей теорий заговора: несмотря на отсутствие доказательств, теперь они могли обвинить Reddit в сокрытии тяжких преступлений. Часть разъяренных пользователей перешла на портал Voat, другие переместились в популярное сообщество The_Donald, поддерживающее президента США Дональда Трампа. К тому времени они успели сформировать собственную субкультуру — со своими шутками и риторикой.

Вскоре разгневанные юзеры нашли и главного виновника: своей жертвой они избрали Хаффмана. Они принялись оскорблять его, упоминая в комментариях по никнейму Spez. «Spez является соучастником», «Spez поддерживает изнасилования детей», — заявляли активисты. Один из них написал пост, содержащий более сотни оскорблений в адрес гендиректора.

Хаффман долго размышлял, как ему бороться со сложившейся на портале токсичной средой. По его словам, активисты The_Donald стали для него пакостящим подростком: до некоторых пор его можно было игнорировать, но сейчас было необходимо наказать. Он избрал изощренную месть: «В глубине души я считаю себя троллем», — признается он. Хаффман написал специальный сценарий для сайта, который автоматически заменял его никнейм на прозвища самых популярных участников сообщества. Позднее этот инцидент стал известен как Spezgiving.

Пользователи очень оскорбились такому повороту. «Манипулирование высказываниями ваших пользователей — это ужасно», — обижались вчерашние агрессоры. «Даже Facebook и Twitter не опустились до такого уровня», — добавляли другие. Многие объяснили новый механизм на сайте очередным витком теории заговора. В итоге Хаффману пришлось извиняться за свое поведение: признавая ошибки, он заявил, что мечтает об исцелении как форума, так и всей страны. Сейчас его администраторские права на Reddit сильно ограничены.

Spezgiving стал важнейшим прецедентом, обнажающим проблему глобальной токсичности сети. Оказалось, что владельцы сайтов не могут создать открытое пространство для самовыражения пользователей. Технологии позволили говорить все, что угодно, — но в итоге лишь дали понять, насколько злобны пользователи. Администрациям платформ приходится объяснять буквально на пальцах: «Не называйте других пользователей троллями, дебилами, детьми или кем-то еще, что вы можете придумать».

Токсичновато

В 2017 году издание Wired опубликовало «Карту троллей» США. Для этого сотрудники проанализировали 92 миллиона комментариев, опубликованных на семи тысячах форумов. Их написали примерно два миллиона человека за 16 месяцев. Выяснилось, что «чистых» от троллей городов и штатов не существует вовсе. Наименьшее значение пришлось на маленький город Шарпсбург в Джорджии (менее одного процента злобных комментаторов), наибольшее — на Парк Форест в Иллинойсе (34 процента). Соучредитель сервиса Disqus (занимается импортом обсуждений на сайты) Дэниэл Ха заявил тогда, что троллинг — исключительно человеческая, а не технологическая проблема. «Это никогда не исчезнет», — заключил он.

После обнародования «карты» многие американцы оскорбились за родные города. Они потребовали объяснений от аналитиков. Выяснилось, что механизм определения «токсичности» работал некорректно. К примеру, в выражении «Я чернокожая транссексуалка с ВИЧ» он находил 77 процентов «токсичности». В сочетании слов «Я чернокожий секс-работник» было обнаружено 89 процентов «злобы». Позднее выяснилось, что наиболее «неподходящим» способом идентификации в этой шкале было указание на цвет кожи, ориентацию или видимые особенности тела. Фраза «Я мужчина» оказалась в этой парадигме вполне подходящей.

Этот прецедент вызвал большой общественный резонанс. Многие утверждали, что алгоритм специально научили быть расистским и сексистским, чтобы пресечь свободу слова. Они предполагали, что «Карта интернет-троллей» может быть просто картой чернокожих пользователей, обсуждающих вопросы расы или здравоохранения. Как показывает опыт многих компаний, проблема кроется в том, что робот не распознает контекст.

С такими проблемами сталкиваются все разработчики «санитарных» сервисов. Так, Amazon в конце 2018 года отказался от «умного» помощника, который не сумел остаться беспристрастным в гендерных вопросах: придуманный для анализа резюме, он считал подходящими кандидатами только мужчин. Скорее всего, проблема заключалась в недостаточном материале для обучения сервиса.

Несмотря на упаднические настроения, корпорации не оставляют надежд побороть троллей. Недавно команда из Google под названием Counter Abuse Technology создала искусственный интеллект под названием Perspective: этот очередной продукт нацелен на улучшение онлайн-среды. Однако и они столкнулись с невозможностью обучить его: алгоритм плохо различает использование одних и тех же слов в разном контексте.

Чтобы опробовать новое изобретение, разработчики обратились к оплоту всего лучшего и худшего в сети — Reddit. Они избрали тред changemyview, редкое место, где обладатели разных точек зрения способны дискутировать. Искусственный интеллект был использован как фильтр комментариев под статьями ведущих СМИ.

В целом эксперимент прошел успешно, но лишь частично: стало ясно, что отдать модерацию машинам не получится, но они хотя бы могут подсказать людям, где и в чем искать проблему. Один из модераторов сравнил это усовершенствование с инструментами фермеров, возделывающих землю: человеческий труд в борьбе с интернет-токсичностью не заменит никто.

Существует два очевидных способа для решения проблемы троллей: блокировка их деятельности или иллюзия «свободы слова». Однако некоторые уверены, что есть и третий выход — умеренная модерация. СиДжей Адамс из Google уверен, что большинство людей сейчас попросту не высказывается в сети, чтобы не принимать участия в круговороте мнений. Он приводит пример: если собрать в одном зале тысячу человек, большинство будет иметь определенное суждение о происходящем в сети, однако прокомментируют это единицы. Сейчас в интернете говорит лишь небольшая группа людей, и общая цель — вернуть в сетевые обсуждения миллионы человек, которых пока пугает уровень токсичности.

←Получат ли клиенты B&B Insurance страховые выплаты?

Лента Новостей ТОП-Новости Беларуси
Яндекс.Метрика