Сегодня злоумышленники все чаще используют фейковые новости для манипуляций общественным мнением, разжигания конфликтов и подрыва доверия к информации в целом. Предложенная модель решает одну из ключевых задач — автоматизацию идентификации недостаточной или искаженной достоверности информации. Это может найти применение как в работе средств массовой информации, так и в деятельности государственных структур, специализирующихся на информационной безопасности.
«Современные средства автоматического анализа текстов сталкиваются с большой разнородностью новостного контента, в том числе с механизмами сложных манипуляций. Моя цель состояла в том, чтобы создать алгоритм, который сможет учитывать контекст, тональность и сложные языковые конструкции, характерные для фейков, — рассказал Федор Фомичев. — Особенно сложной оказалась задача обучить модель отличать искажение фактов от субъективной подачи новостей, ведь тонкая грань между правдой и неправдой часто размыта».
Для реализации проекта разработчик использовал методы обработки естественного языка (NLP), включая эмбеддинги слов, рекуррентные нейронные сети и технологии трансформеров, дополняя их ансамблевыми подходами, которые позволяют объединить преимущества разных подходов к классификации. Результаты первых тестов продемонстрировали устойчивую точность в условиях высокой сложности анализа и работы с разнородными текстами.