Нейросети смогут определять призывы к терроризму в Telegram
После теракта в «Крокусе Сити Холле» остро встала необходимость регулировать деятельность социальных сетей. Бороться с запрещенным контентом поможет искусственный интеллект. Как отметил в беседе с ведущей «360» Екатериной Малашенко эксперт по кибербезопасности, хакер Дмитрий Артимович, нейросети можно обучить определять призывы к терроризму в социальных сетях.
«С точки зрения искусственного интеллекта, обучить нейросети, чтобы они определяли призывы к терроризму, к чему-то незаконному, технически вполне можно», - отметил он.
По его словам, тогда нейросеть будет выявлять подобные сообщения и чаты. А дальше нужно привлекать ручную модерацию. Дело в том, что у нейросетей есть процесс «ложных срабатываний». Поэтому, чтобы не допустить ошибку, работу искусственного интеллекта нужно проверять человеку.
«Поэтому сначала это нужно определять автоматически, а потом отдавать на ручную модерацию. Я уверен, что Telegram, „ВКонтакте“ со спецслужбами сотрудничают. Поэтому там выявлять это вполне себе возможно», - подчеркнул Артимович.
Он также уточнил, что работа нейросетей вряд ли будет мешать нормальному функционированию таких мессенджеров, как Telegram. Но при этом есть другая опасность. Если процесс регулирования Telegram и «ВКонтакте» все же наладят, злоумышленники могут перейти на другие площадки, в том числе в WhatsApp и Facebook*. Если такое случится, то правильным решением со стороны государства будет заблокировать их, добавил Артимович.
* Принадлежит компании Meta, которая признана экстремистской и запрещена в России.