Пока одни с помощью ИИ пишут бизнес-планы и ставят диагнозы, другие боятся потерять из-за него работу и стать жертвой мошенников. Brand Analytics провел большое исследование соцмедиа, чтобы понять, как русскоязычные пользователи воспринимают ИИ. Картина получилась на редкость двойственной. Кто победит в этом внутреннем споре — оптимист или скептик?
Как мы считали
Исследование проведено с помощью системы анализа соцмедиа и СМИ Brand Analytics и аналитического ИИ-инструмента «Тренд детектор Исследования». В интересах исследования было проанализировано более 9 млрд. публичных сообщений, опубликованных пользователями летом 2025 года (с 1 июня по 1 сентября 2025). Из них было выявлено и проанализировано более 4,1 млн публичных русскоязычных сообщений соцмедиа, посвященных искусственному интеллекту. Эти разговоры собрали внушительные 165 миллионов реакций — лайков, комментариев, репостов. По реакции аудитории было заметно, что вопрос является для них важным. И главный вывод звучит так: в обществе доминируют противоречивые настроения.
Половина обсуждений (52%) — это посты про эффективность применения ИИ в разных сферах. Вторая значительная часть, 28%, — сплошное беспокойство. Мы одновременно заворожены мощью нового инструмента и всерьез напуганы его тенью.

Сферы применения
Мы находимся в самом разгаре технологических перемен. С одной стороны — растущий интерес к автоматизации рутины, с другой — привычная осторожность перед всем новым. Это противоречие заметно во всех ключевых сферах жизни.

1. Бизнес: эффективность вместо рутины
Больше всего позитивных отзывов (45%) приходится на бизнес. Здесь ИИ активно используют для автоматизации: обработка заявок, аналитика, маркетинг. Но эйфория быстро проходит — компании понимают, что готовые решения часто требуют доработки и постоянного контроля. Главный вывод: ИИ — это инструмент, а не «волшебная таблетка» от всех проблем в бизнес-процессах.
2. IT: программист становится руководителем
В IT набирает силу подход вайб-кодинг, когда разработчик не пишет код вручную, а ставит задачи ИИ-помощнику. Это меняет профессию: теперь ценится не столько знание языков, сколько умение проектировать системы и четко формулировать запросы. Вайб-кодинг действительно существенно трансформирует роль джуниор-разработчиков, превращая их из исполнителей, пишущих код, в менеджеров, которые ставят задачи искусственному интеллекту и контролируют качество его работы. Это изменение приносит как новые возможности, так и серьезные вызовы.
3. Медицина: помощник, а не замена врачу
Раннее проникновение машинного обучения в медицину было закономерным. Сфера изначально обладала идеальными условиями: обширная база четко структурированных данных для обучения моделей( четкие результаты анализов и цифры), высокий уровень стандартизации процессов и острая потребность в решении конкретных задач для здоровья общества — от обеспечения «обязательного второго мнения» до повышения доступности диагностики в удалённых районах. В медицине ИИ используют для анализа снимков, помощи в диагностике и работе с документами. Поэтому неудивительно, что внедрение ИИ решений в такую консервативную отрасль как медицина, проходит более динамично, чем в сферу образования. Но главные вопросы остаются: как сохранить человеческое отношение к пациенту? Можно ли доверять алгоритмам окончательное решение? Специалисты сходятся во мнении — технология должна оставаться инструментом в руках врача.
4. Образование: персональный подход или риск для мышления?
Учителя применяют ИИ для составления планов уроков, ученики — для выполнения заданий. Одни видят в этом шанс сделать обучение более индивидуальным. Другие опасаются, что школьники и студенты разучатся думать самостоятельно. Спор продолжается, но ясно одно — образование уже не будет прежним. Во всех этих дискуссиях активно участвуют и родители. Неожиданно, но часть родителей видит в ИИ больше пользы: работа с нейросетями помогает им экономить семейный бюджет на репетиторах для ребенка: ИИ уже умеет грамотно объяснять материал, а не просто выдавать готовые решения.
Что беспокоит пользователей соцмедиа: детальный анализ
Значительная часть общественной дискуссии (28%) сконцентрирована на рисках, связанных с развитием искусственного интеллекта. Анализ комментариев позволил выявить сразу несколько страхов. Часть из них уже вполне обоснованы, остальные больше похожи на пессимистичный (а, может, и вполне реалистичный?) взгляд в будущее.

- Непредсказуемость развития и потеря контроля (32%)
Наиболее значительная группа рисков связана с непредсказуемостью развития сильного ИИ. В обществе растёт тревога, связанная с потенциальной возможностью искусственного интеллекта к самосовершенствованию, после чего развитие систем может выйти из-под контроля человека. Это ставит вопросы о необходимости разработки превентивных мер глобального регулирования и создания надежных механизмов контроля.
- Дезинформация и фейки (21%)
ИИ уже умеет создавать настолько правдоподобные тексты, фото и видео, что отличить их от настоящих становится почти невозможно. Это открывает большие возможности для манипуляций: можно влиять на общественное мнение, вмешиваться в политику и подрывать доверие к СМИ. Справиться с этим помогут только новые инструменты проверки фактов и обучение людей цифровой грамотности.
- Скам и мошенничество (13%)
Технологию вовсю используют преступники. С помощью ИИ они создают фишинговые письма, подделывают голоса и видео для вымогательства, а также автоматизируют обман по телефону. Это заставляет полностью пересматривать системы безопасности и способы идентификации пользователей.
- Замена рабочих мест и дегуманизация (12%)
Люди боятся не только роста безработицы из-за автоматизации. Есть и более глубокая проблема — обесценивание чисто человеческих качеств: творчества, сопереживания, морального выбора. Особенно это касается творческих профессий и управления, где решения часто требуют эмоционального интеллекта.
- Деградация навыков (8%)
Постоянная зависимость от ИИ-помощников может привести к тому, что люди разучатся думать самостоятельно: анализировать информацию, критически оценивать данные и генерировать оригинальные идеи. В группе риска — молодежь, которая растет в мире, где нейросети всегда под рукой.
- Нарушение приватности (7%)
Мы сами легко «кормим» ИИ-модели своей личной информацией, критически важными данными и сокровенными тайнами. В мире уже были случаи «сливов» из нейросетей. Люди опасаются, что эта тенденция усилится, поэтому уже пора насторожиться и задаться вопросом, какие данные мы доверяем ИИ.
- Маркировка (3%)
Русскоязычные пользователи соцмедиа обсуждают еще одну важную тему: маркировка ИИ-генерированного контента. Многие страны задумались над госрегулированием нейросетей. Россия тоже в тренде. Например, в Минцифры не исключают, что в России придут к обязательной маркировке контента, созданного с помощью искусственного интеллекта, как и к введению уголовной ответственности за распространение дипфейков, созданных без согласия человека.
Пользователи назвали главные проблемы работы с ИИ
Это один из немногих вопросов, по которому в интернет-сообществе нет разногласий. 87% русскоязычных пользователей соцсетей отмечают, что главной проблемой использования ИИ является бесконечное количество ошибок и сбоев. Несмотря на очевидные достижения развития, ИИ-моделям свойственно ошибаться. 10% обсуждений касаются галлюцинаций работы ИИ, когда технически ошибки нет, но написанное противоречит здравому смыслу. Кроме того, ИИ до сих пор свойственны шаблонность и неуникальность созданного контента (3%). Мы стали считывать тексты, написанные нейросетью. В обществе зарождаются споры об этичности использования ИИ в личных переписках и деловых коммуникациях.

Нейросеть — новый друг и психолог?
А вот и неожиданный поворот: около 5% обсуждений на русскоязычных платформах — про использование ИИ как психологического помощника или друга. Одни находят в чате с нейросетью утешение и безопасность, другие же предупреждают: «Это опасная иллюзия, заменяющая живую эмпатию».
Не замена, а трансформация
Главный итог лета 2025 года не в том, что ИИ нас заменит. А в том, что он нас изменил. Изменил требования к нам самим. На первый план выходят не жесткие навыки, а «человеческое»: критическое мышление, управление, этика, экспертиза. Будущее взаимодействия с искусственным интеллектом будет зависеть от того, найдем ли мы хрупкий баланс между его невероятной мощью и тем, что делает нас людьми. Пока что мы только в начале этого пути.