С развитием технологий искусственного интеллекта правительства по всему миру начинают активно усиливать регулирование в этой сфере. Причины этого в стремительном прогрессе технологий, который происходит быстрее, чем это наблюдалось с криптовалютами 6−7 лет назад.
«Искусственный интеллект стал доступен каждому пользователю на расстоянии вытянутой руки, что создает необходимость в разработке эффективных регуляторных механизмов», — рассказал tmn.aif.ru Владимир Дащенко, эксперт по кибербезопасности систем промышленной автоматизации и умных устройств в Kaspersky ICS CERT.
Он отметил, что одной из основных проблем является интеграция ИИ в системы формирования мнений и пропаганды. Например, пользователи из разных стран с похожими профилями могут получать совершенно разные результаты по одним и тем же запросам. Это может быть использовано для продвижения определенных идей, характерных для конкретного региона, что вызывает опасения по поводу манипуляции общественным мнением.
Кроме того, эксперты подчеркивают, что ИИ может применяться не только в киберпространстве, но и в кинетических атаках. Недавние новости о контракте OpenAI с Министерством обороны США на использование больших языковых моделей для разработки дронов подчеркивают важность интеграции ИИ в военные технологии. Это создает новые вызовы для безопасности и требует тщательного контроля.
«С точки зрения общества, развитие больших языковых моделей может привести к появлению виртуальных помощников и друзей, что потенциально поможет многим людям справиться с одиночеством. Однако это также открывает возможности для сбора маркетинговой информации, которую компании могут использовать для манипуляции потребительским поведением», — добавил Владимир.
В ближайшие год-полтора ожидается, что многие компании начнут активно инвестировать в разработку ИИ-технологий, что приведет к созданию новых бизнес-моделей. Однако, учитывая стремительное развитие регуляторных инициатив, компаниям следует быть готовыми к изменениям в законодательстве, которые могут ограничить их возможности.