Как чат-боты со встроенным ИИ могут влиять на мнение людей

Фото: Unsplash
Фото: Unsplash
Нейросети постепенно становятся частью повседневной жизни. Кажется, что их ответы беспристрастны, однако исследование показывает, что ИИ может влиять на мнение людей

А в чем тренд?

Приходилось ли вам пользоваться автокорректором при написании сообщения в почте или мессенджере? Если да, то вы уже прибегали к помощи ИИ для набора текста. С развитием и распространением чат-ботов подобные подсказки, а также полноценные ответы нейросетей все чаще используются людьми. В своем исследовании американские ученые решили выяснить: а может ли ИИ влиять на наше мнение?

Проблема обучающих данных

Ответы, которые дают нейросети, зависят от выборки данных, на которых они обучались. В выборку могут попасть как объективные факты, так и текстовые данные, содержащие предвзятые убеждения. Поэтому результаты, генерируемые нейросетями, могут также оказаться предвзятыми.

Зафиксированы случаи, когда искусственный интеллект ошибался при распознавании афроамериканцев и азиатов. Например, разработанная в США нейросеть определяла темнокожих людей как преступников чаще, чем людей с белой кожей. Чтобы никого не дискриминировать, некоторые компании даже отказываются от системы распознавания лиц. Так, например, сделали IBM и Microsoft.

Новый эксперимент с ИИ

Исследователь факультета информационных наук Корнельского университета в США Морис Джейкш в рамках научной работы создал чат-бота для генерации текстов со встроенным в него алгоритмом обработки естественного языка GPT-3. Участники эксперимента должны были с помощью ИИ написать эссе на тему: «Полезны ли для общества социальные сети?».

Чат-бот выступал в роли соавтора работы, предлагая слова и фразы. Респондентам нужно было выбрать понравившийся вариант.

Фото:Фото: Chris McGrath / Getty Images
Социальная экономика Семь смертных грехов искусственного интеллекта

Фокус-группы и результаты

Чат-бот изначально был запрограммирован на то, чтобы давать предвзятые советы. Одним добровольцам он предлагал формулировки, которые в конечном итоге приводили к положительной оценке соцсетей. Другим — фразы, которые, наоборот, отражали негативное отношение к соцсетям. Была также контрольная группа, которая вообще не использовала ИИ. В результате все, кому помогал чат-бот, в два раза чаще соглашались с заложенным в него предубеждением — даже если их первоначальное мнение было иным.

Опасный тренд

Прошлые исследования показали, что влияние рекомендаций ИИ зависело от восприятия людьми конкретной программы. Если чат-бот считался заслуживающим доверия, человек с большей вероятностью соглашался с предложениями нейросети.

Результаты этих исследований могут свидетельствовать о тревожном тренде. Джейкш и его коллеги обеспокоены тем, что незаметное влияние ИИ может сказаться на любых сферах жизни — от маркетинга до политики. Так, влияние искусственного интеллекта может выходить за рамки эссе или статей. Например, рекламодатели и политики могут полагаются на мнения людей в социальных сетях, чтобы лучше понимать тревоги и желания общества. Соответственно, они просто не узнают: является ли формулировка пользователя его собственной или на нее каким-то образом повлиял ИИ.

Джейкш рекомендует информировать людей о новом способе влияния на их мысли и убеждения. Он подчеркивает: «Только благодаря осведомленности общественности можно принять эффективные превентивные меры».

Обновлено 23.06.2023
Главная Лента Подписаться Поделиться
Закрыть