Сегодня, 1 декабря, разработчики стримингового сервиса Twitch официально представили новейшую функцию, основанную на технологии машинного обучения и искусственного интеллекта, которая должна защитить создателей контента от так называемых троллей, которые избегают блокировки на каналах при помощи новых аккаунтов. Инструмент получил название Suspicious User Detection («Обнаружение подозрительных пользователей») — он автоматически отмечает в чате сообщения пользователей, которые, по мнению ИИ, с большой долей вероятности являются троллями, уклоняющимися от блокировки.
«Данный инструмент анализирует поведение пользователя и характеристики его учётной записи, а потом сравнивает полученные данные с ранее заблокированными на канале стримера аккаунтами», — заявили разработчики Twitch.
В случае, если система определит пользователя в ряды троллей, его сообщение не будет отображаться в общем чате, но сам стример и модераторы его канала смогут кликнуть по специальной иконке и просмотреть сообщение. На этом этапе создатель контента или модератор принимают решение о дальнейшей блокировки на канале — если пользователя всё же определили в ряды нарушителей ошибочно, его можно «разблокировать» и тогда все последующие сообщения будут сразу отображаться в общем чате. Это реализовано по той причине, что ИИ работает не идеально, так что система вполне может допустить ошибку, но у стримера должна быть возможность вынести окончательный вердикт.
Именно из-за возможных ошибок, допущенных автоматикой, в Twitch будут отмечать потенциальных троллей с новыми аккаунтами, а не блокировать их. Разработчики новой системы заявили, что создать ИИ на основе технологии машинного обучения, который бы на 100% точно определял действия нарушителей в контексте общения в чате, просто невозможно. Именно по этой причине окончательное решение оставляют за стримером и его модераторами, но в компании заявили, что постепенно система будет обучаться на действиях создателей контента, и в будущем технология будет работать более точно.