ИИ защитит от ИИ? Каждый четвертый IT-специалист в России считает дипфейки самой опасной угрозой.
NewsMakerЧто показал опрос Кибердома о новых угрозах.
Аналитики проекта «Кибердом» опросили 1325 IT-специалистов из крупных российских компаний и выяснили, как они оценивают угрозы, связанные с использованием искусственного интеллекта в киберпространстве. Каждый четвёртый респондент считает самым опасным инструментом мошенников дипфейки, которые становятся всё более убедительными.
Среди других рисков участники назвали подбор и взлом паролей (17%), мошеннические чат-боты (12%), подделку документов (8%) и фишинговые письма (2%). При этом треть опрошенных (33%) заявили, что опасно всё, что создаётся злоумышленниками с помощью ИИ-технологий.
Регулярно сталкивались с использованием ИИ со стороны мошенников и хакеров 14% специалистов. Массового применения таких инструментов пока нет: 80% респондентов лично не имели дела с ИИ-угрозами, но понимают, что не застрахованы от них. Ещё 6% затруднились ответить, были ли подобные инциденты в их практике.
В «Кибердоме» отмечают, что искусственный интеллект несёт риски в части фишинга, социальной инженерии и дипфейков. По словам экспертов, ИИ снижает порог входа в киберпреступность, делает атаки массовыми и дешёвыми, а значит, количество инцидентов будет расти. Для противодействия необходимо не только реагировать на угрозы, но и предугадывать их, объединяя усилия бизнеса и специалистов по информационной безопасности.
Большинство опрошенных (62%) уверены, что справиться с ИИ-мошенничеством можно только комплексно. 46% считают необходимым внедрять антифрод-системы, многофакторную аутентификацию и технологии верификации голоса и видео. Почти каждый пятый делает ставку на собственные ИИ-решения, а 20% уверены, что никакие технические средства не обеспечат полной защиты.
Исследование показало, что ИИ пока не получил широкого распространения в кибербезопасности. Только 8% компаний применяют такие решения эффективно, у 20% есть отдельные наработки, у 42% внедрение пока в планах. Почти четверть организаций не используют искусственный интеллект и не собираются делать это в ближайшее время.
Отдельно респонденты подчеркнули роль человеческого фактора: 32% считают, что без бдительности сотрудников технические средства малоэффективны. Почти половина (48%) указали на важность обучения персонала — проведение тестовых атак, тренингов и мастер-классов. В «Кибердоме» подчеркнули, что именно сотрудники часто становятся «точкой входа» для злоумышленников, поэтому формирование культуры цифровой безопасности должно быть неотъемлемой частью корпоративной практики.
По прогнозам специалистов, половина участников опроса считает, что использование ИИ поможет повысить уровень защиты компаний. Четверть полагают, что искусственный интеллект со временем полностью или частично заменит человека в сфере кибербезопасности, ещё четверть уверены, что он возьмёт на себя лишь часть функций.

Аналитики проекта «Кибердом» опросили 1325 IT-специалистов из крупных российских компаний и выяснили, как они оценивают угрозы, связанные с использованием искусственного интеллекта в киберпространстве. Каждый четвёртый респондент считает самым опасным инструментом мошенников дипфейки, которые становятся всё более убедительными.
Среди других рисков участники назвали подбор и взлом паролей (17%), мошеннические чат-боты (12%), подделку документов (8%) и фишинговые письма (2%). При этом треть опрошенных (33%) заявили, что опасно всё, что создаётся злоумышленниками с помощью ИИ-технологий.
Регулярно сталкивались с использованием ИИ со стороны мошенников и хакеров 14% специалистов. Массового применения таких инструментов пока нет: 80% респондентов лично не имели дела с ИИ-угрозами, но понимают, что не застрахованы от них. Ещё 6% затруднились ответить, были ли подобные инциденты в их практике.
В «Кибердоме» отмечают, что искусственный интеллект несёт риски в части фишинга, социальной инженерии и дипфейков. По словам экспертов, ИИ снижает порог входа в киберпреступность, делает атаки массовыми и дешёвыми, а значит, количество инцидентов будет расти. Для противодействия необходимо не только реагировать на угрозы, но и предугадывать их, объединяя усилия бизнеса и специалистов по информационной безопасности.
Большинство опрошенных (62%) уверены, что справиться с ИИ-мошенничеством можно только комплексно. 46% считают необходимым внедрять антифрод-системы, многофакторную аутентификацию и технологии верификации голоса и видео. Почти каждый пятый делает ставку на собственные ИИ-решения, а 20% уверены, что никакие технические средства не обеспечат полной защиты.
Исследование показало, что ИИ пока не получил широкого распространения в кибербезопасности. Только 8% компаний применяют такие решения эффективно, у 20% есть отдельные наработки, у 42% внедрение пока в планах. Почти четверть организаций не используют искусственный интеллект и не собираются делать это в ближайшее время.
Отдельно респонденты подчеркнули роль человеческого фактора: 32% считают, что без бдительности сотрудников технические средства малоэффективны. Почти половина (48%) указали на важность обучения персонала — проведение тестовых атак, тренингов и мастер-классов. В «Кибердоме» подчеркнули, что именно сотрудники часто становятся «точкой входа» для злоумышленников, поэтому формирование культуры цифровой безопасности должно быть неотъемлемой частью корпоративной практики.
По прогнозам специалистов, половина участников опроса считает, что использование ИИ поможет повысить уровень защиты компаний. Четверть полагают, что искусственный интеллект со временем полностью или частично заменит человека в сфере кибербезопасности, ещё четверть уверены, что он возьмёт на себя лишь часть функций.