Искусственный интеллект требует этического регулирования?

23 сентября главный редактор Центра Ксения Киселева приняла участие в дебатах «Побочки автоматизации или как избежать управленческих ошибок, доверяя искусственному интеллекту» на мероприятии IDC Future of Work Summit. Руководитель направления исследований и аналитики Екатерина Потапова выступила с докладом о предвзятости алгоритмов и ответственной разработке систем ИИ.

Сфер применения ИИ — множество, от предиктивной аналитики до распознавания лиц. В том числе компании все чаще используют ИИ в управлении кадрами. Алгоритмы могут быстро собирать и анализировать данные, определять по фотографии настроение или даже черты характера кандидатов. Но рекомендации, которые выдают системы ИИ, могут быть необъективными и предвзятыми. О том, какие этические риски возникают при использовании ИИ в управлении персоналом, рассказала главный редактор Центра Ксения Киселева на конференции IDC Future of Work Summit 2021.

Несмотря на то, что технологии ИИ находят применение в разных областях, этические вопросы вызывают одинаковые: как избежать предубежденности алгоритмов, кто возьмет ответственность за ошибки «умных» систем, как обеспечить и регулировать прозрачность решений на базе ИИ? Такое мнение высказала Ксения Киселева.

По словам эксперта Центра, за последние 20 лет бизнес все больше полагается на продвинутые цифровые технологии. В подтверждение этому эксперт привела зарубежную статистику: к 2019 году (еще до пандемии) более 85% крупных американских компаний использовали в своих HR-подразделениях решения, основанные на ИИ.

«Технологии не просто эффективны, по своей природе они построены на анализе данных и могут тем самым показывать пути оптимизации и повышения доходности инвестиций. Мы не хотим тратить огромные деньги на некорректно работающие системы. Но реальность такова (число соискателей, число вакансий, предвзятость специалистов по подбору кадров), что мы не сможем обойтись без помощи систем ИИ. Вопрос в том, на каких данных учатся алгоритмы, кто за них отвечает», — отметила Ксения Киселева.

Спикер также обратила внимание на проблему предвзятости систем ИИ в целом и программ-советчиков в частности. Она считает этот вопрос одним из наиболее критических при применении ИИ. Незаметные на первый взгляд предубеждения и предположения могут скрываться в данных, на основе которых строятся системы ИИ. В итоге алгоритмы могут иметь серьезные «слепые пятна» и выдавать рекомендации, которые только укрепляют и воспроизводят эти предубеждения.

«Мы боимся, что алгоритмы могут быть предвзяты или излишне формальны, но забываем, что обычно люди еще более предвзяты. Допустим, ИИ анализирует снимок легких хуже, чем самые выдающиеся врачи, но значительно лучше, чем средний специалист. В таком случае предвзятость будет, но в среднем объективность будет заведомо выше. В целом алгоритмы менее предубеждены чем люди. К тому же, в отличие от человеческих, решения, принимаемые ИИ, могут быть раскрыты, исследованы и детально проверены», — подчеркнула Ксения Киселева.

Таким образом, для корректной работы алгоритмов необходимо этическое регулирование.

Тему предвзятости ИИ развила руководитель направления исследований и аналитики Центра подготовки руководителей и команд цифровой трансформации ВШГУ РАНХиГС Екатерина Потапова. В своем выступлении она также обратила внимание на ответственную разработку решений на основе ИИ. Эксперт привела пример чат-бота, который создала французская компания Nabla, чтобы уменьшить нагрузку на врачей. Участник эксперимента обратился к боту-помощнику с вопросом, убить ли себя. ИИ дал положительный ответ. После этого случая разработку чат-бота прекратили.

Екатерина Потапова отмечает, что ИИ — это не панацея, а инструмент. Несмотря на то, что «умные» системы могут делать прогнозы, нет гарантии, что люди будут использовать их разумно и контролировать работу алгоритма. По мнению эксперта, главная проблема таких систем — это предвзятость, которую может решить этическое регулирование.

«Этика напрямую связана с доверием, а доверие — с успешностью компании или страны в долгосрочной перспективе. Доверие граждан государству тает, когда технологии используют неэтично, когда их применение вызывает страх и наносит вред гражданам», — считает Екатерина Потапова.

Спикер, отвечая на вопрос, как можно быть этичным, предложила использовать фреймворки, разработать регламенты и политики, моделировать поведение пользователей. Среди других перспективных стратегий — использование решений Ethics-as-a-Service. Более подробно изучить тему этических рисков цифровых технологий можно в докладах Центра подготовки руководителей и команд цифровой трансформации ВШГУ РАНХиГС «Этика и “цифра”», выпущенных в 2020 и 2021 году.

Присоединяйтесь к нашему каналу в Telegram, группам ВКонтакте и Facebook!
comments powered by Disqus