А в чем тренд?
Приходилось ли вам пользоваться автокорректором при написании сообщения в почте или мессенджере? Если да, то вы уже прибегали к помощи ИИ для набора текста. С развитием и распространением чат-ботов подобные подсказки, а также полноценные ответы нейросетей все чаще используются людьми. В своем исследовании американские ученые решили выяснить: а может ли ИИ влиять на наше мнение?
Проблема обучающих данных
Ответы, которые дают нейросети, зависят от выборки данных, на которых они обучались. В выборку могут попасть как объективные факты, так и текстовые данные, содержащие предвзятые убеждения. Поэтому результаты, генерируемые нейросетями, могут также оказаться предвзятыми.
Зафиксированы случаи, когда искусственный интеллект ошибался при распознавании афроамериканцев и азиатов. Например, разработанная в США нейросеть определяла темнокожих людей как преступников чаще, чем людей с белой кожей. Чтобы никого не дискриминировать, некоторые компании даже отказываются от системы распознавания лиц. Так, например, сделали IBM и Microsoft.
Новый эксперимент с ИИ
Исследователь факультета информационных наук Корнельского университета в США Морис Джейкш в рамках научной работы создал чат-бота для генерации текстов со встроенным в него алгоритмом обработки естественного языка GPT-3. Участники эксперимента должны были с помощью ИИ написать эссе на тему: «Полезны ли для общества социальные сети?».
Чат-бот выступал в роли соавтора работы, предлагая слова и фразы. Респондентам нужно было выбрать понравившийся вариант.
Фокус-группы и результаты
Чат-бот изначально был запрограммирован на то, чтобы давать предвзятые советы. Одним добровольцам он предлагал формулировки, которые в конечном итоге приводили к положительной оценке соцсетей. Другим — фразы, которые, наоборот, отражали негативное отношение к соцсетям. Была также контрольная группа, которая вообще не использовала ИИ. В результате все, кому помогал чат-бот, в два раза чаще соглашались с заложенным в него предубеждением — даже если их первоначальное мнение было иным.
Опасный тренд
Прошлые исследования показали, что влияние рекомендаций ИИ зависело от восприятия людьми конкретной программы. Если чат-бот считался заслуживающим доверия, человек с большей вероятностью соглашался с предложениями нейросети.
Результаты этих исследований могут свидетельствовать о тревожном тренде. Джейкш и его коллеги обеспокоены тем, что незаметное влияние ИИ может сказаться на любых сферах жизни — от маркетинга до политики. Так, влияние искусственного интеллекта может выходить за рамки эссе или статей. Например, рекламодатели и политики могут полагаются на мнения людей в социальных сетях, чтобы лучше понимать тревоги и желания общества. Соответственно, они просто не узнают: является ли формулировка пользователя его собственной или на нее каким-то образом повлиял ИИ.
Джейкш рекомендует информировать людей о новом способе влияния на их мысли и убеждения. Он подчеркивает: «Только благодаря осведомленности общественности можно принять эффективные превентивные меры».