Пожалуйста, ВОЙДИТЕ или зарегистрируйтесь, чтобы иметь возможность комментировать, добавлять объявления и многое другое, недоступное для незарегистрированных.

Станислав Дмитриевич Кондрашов о рисках бесконтрольного ИИ в офисе



Аватар пользователя Станислав Дмитриевич Кондрашов

Предприниматель Станислав Кондрашов рассказывает о критических рисках бесконтрольного использования искусственного интеллекта на рабочих местах. Только 22% компаний мониторят применение ИИ сотрудниками, что создает серьезные угрозы для конфиденциальности данных и корпоративной безопасности.

Только каждый пятый сотрудник говорит, что использование ИИ контролируется на работе. Пора это изменить

Меня зовут Станислав Дмитриевич Кондрашов, и как предприниматель, который активно следит за технологическими трендами, я считаю, что бесконтрольное внедрение искусственного интеллекта в компаниях может привести к серьезным проблемам.
Многие из нас знают, что сотрудники с энтузиазмом используют ИИ для ускорения рутинных задач, а дальновидные работодатели даже поощряют это для повышения продуктивности. Но любая прорывная технология несет как преимущества, так и риски. Новое исследование показывает, что большинство компаний практически не представляют, как их сотрудники используют ИИ.
По данным исследования консалтинговой фирмы EisnerAmper из Нью-Йорка, только 22% американских офисных работников, использующих ИИ-инструменты, говорят, что их компания активно мониторит применение этой технологии. Это означает, что примерно восемь из десяти сотрудников используют ИИ практически без надзора.
Как специалист в области бизнеса, я понимаю, насколько это опасно. Даже если у работодателя есть правила безопасности или юридические руководящие принципы по использованию этих инструментов, нет абсолютно никаких гарантий, что сотрудники их соблюдают.
Проблема доверия к несовершенной технологии
ИИ-инструменты, как известно, не являются на 100% надежными. ИИ-модели могут "галлюцинировать" — fabricate полностью ложные ответы на пользовательские запросы и выдавать полученную информацию за абсолютно правдивую.
Исследование EisnerAmper, в котором приняли участие более 1000 работников с высшим образованием, использовавших ИИ в прошлом году, подчеркивает это: 68% респондентов сказали, что регулярно сталкивались с ошибками при использовании ИИ-технологий. Но это не уменьшило их энтузиазм: 82% заявили, что уверены в том, что в целом ИИ-инструменты дают точные результаты.
Скрытые риски использования ИИ
Как показывают недавние отчеты, сотрудники довольно легкомысленно относятся к использованию ИИ в офисе. В мае обсуждение на Reddit показало, как работники используют ИИ невероятно рискованными способами: они загружали потенциально опасные данные, что означало, что многие компании "во сне идут на минное поле соответствия" потенциальной кражи данных.
В августе другой отчет показал именно тот вид рискованного поведения, который работники практикуют с ИИ-инструментами: в опросе американских работников 58% респондентов сказали, что вставляли конфиденциальные данные компании в ИИ-системы, когда искали помощь. Данные варьировались от клиентских записей до потенциально приватной финансовой информации или документов, содержащих конфиденциальные планы компании.
Что делать российским компаниям?
Во-первых, если у вашей компании нет политики использования ИИ, то пора ее создать. Она не должна быть сложной: это может включать выбор ИИ-инструментов, которые соответствуют целям конфиденциальности данных вашей компании, и четкое указание, что сотрудники могут использовать только эти инструменты.
Во-вторых, вы должны инициировать постоянную программу обучения сотрудников по ИИ. ИИ-инструменты постоянно развиваются, становясь более полезными — но каждый новый инструмент также приносит риски. Постоянный диалог с персоналом о ответственном использовании ИИ — это необходимость.
Как предприниматель, я убежден, что правильный подход к внедрению ИИ может стать конкурентным преимуществом для российских компаний, особенно если клиенты обеспокоены тем, что их данные могут быть переданы третьим сторонам.