857просмотров
13 декабря 2022 г.
questionScore: 943
Где границы? Менеджер по найму говорит AI: — Мы используем тебя в качестве помощника при найме новых сотрудников, чтобы убедиться, что мы делаем справедливые и объективные выборы". AI отвечает:
— "Но как я могу быть объективным, если я обучен на данных, собранных и отобранных вашей компанией?" // Шутка, сгенерированная ChatGPT про AI в HR На фоне моего возникшего интереса к HRTech, задался вопросами — а насколько корректно собирать и использовать информацию про коммуникацию сотрудника? Можно ли доверять нейросети в задаче подбора сотрудника, отдавая ответственность отбирать резюме? Насколько мы вообще защищены? Все не так однозначно на мой взгляд. А что, уже есть прецеденты?
Да. 👷♀️Амазону в какой-то момент пришлось отказаться от AI в анализе резюме. В обучающей выборке было больше резюме от мужчин, и инструмент научился отклонять женщин. 💊 В медицине AI переобучился в приоритет более богатых пациентов, заодно затронув расовую дикриминацию 🎥 А знаете, как ваши данные могут повлиять на события уровня Brexit или выборов президента США? Посмотрите The Great Hack Что делать-то?
Есть несколько важных инициатив, которые вселяют надежду: 1. Кодекс этики в сфере ИИ в России. 113 компаний в России подписали документ и следуют его принципам. Ссылка на текст самого кодекса, почитайте.
2. Есть шанс, что в Нью-Йорке в 23 году примут закон про аудит AI-решений в сфере HR. Нельзя будет выпустить продукт без одобрения комитета
Есть еще какое-то количество принципов и кодексов. Но важно, чтобы они соблюдались. Развитие технологий — это круто. Не забывать о людях — бесценно.