Последние новости
29 сентября в 09:12
Геологи представили новую теорию образования газа и нефти
29 сентября в 08:59
Синоптик: первого снега в октябре ожидать в Москве не стоит
29 сентября в 08:45
В России начнут отзывать права у водителей с опасными заболеваниями
26 сентября в 10:24
Эксперт назвал пять шагов, которые повысят сплоченность в коллективе в эпоху ИИ
26 сентября в 10:08
В новосибирской новостройке из-за проблем с электроснабжением страдают дети с астмой и диабетом
26 сентября в 09:43
Эксперты рассказали, как защитить школьников от травли
26 сентября в 09:02
В России до 1 октября можно выбрать бесплатные лекарства вместо льгот
26 сентября в 08:43
Мишустин подписал постановление о праздничных и выходных днях в России
26 сентября в 08:32
Суд в Париже приговорил Саркози к пяти годам тюрьмы
25 сентября в 16:41
Учитель из Новосибирска надеется на выход в финал шоу «Классная тема»
25 сентября в 11:26
На Камчатке школьник выжил при встрече с медведем
25 сентября в 11:13
Политобозреватель: одно решение Трампа перечеркнуло все идеи, которые продвигал Кирк
25 сентября в 10:56
В России сдавать экзамен на водительские права будут без обучения в автошколе
24 сентября в 14:22
При пожаре в Новосибирском зоопарке погибли животные
24 сентября в 13:56
На «Розе Хутор» зацвели краснокнижные крокусы
24 сентября в 13:43
Специалист из Новосибирска поделилась, стоит ли инвестировать в робота-мойщика окон
24 сентября в 13:00
Изменений в режиме работы самозанятых не произойдет до 2028 года

ИИ чат GPT-4 в дебатах проявил себя убедительнее людей на 64%

Учёные - GPT-4 в 64% случаев переубеждает людей, используя личные данные
Фото: commons.wikimedia.org

Группа учёных из Швейцарии, Америки и Италии выявила серьёзную уязвимость в использовании ИИ, включая GPT-4. В статье Nature Human Behaviour указано, что ИИ оказался более убедительным, чем человек, в 64% случаев — особенно при доступе к личным данным оппонента.

«Мы показали, что в дебатах  GPT-4 в 64% случаев более успешен, чем человек, если имеет доступ к персональным данным», — отмечается в исследовании.

Эксперимент проводился под руководством доцента Роберта Уэста. Цель — изучить потенциал применения ИИ, способного адаптировать аргументы под  убеждения и характеристики собеседника. Особую тревогу вызывает способность нейросетей персонализировать аргументацию: получая данные о взглядах, ценностях и психологическом профиле человека, ИИ может эффективно склонять его к изменению мнения.

Для подтверждения опасений исследователи привлекли 900 пользователей Сети. Каждому предлагалось вступить в онлайн-дебаты на политическую, либо социальную тему — как с людьми, так и с GPT-4. Доступ к персональным данным усиливал эффективность ИИ: GPT-4 вдвое чаще людей склонял оппонентов к изменению мнения. 

Учёные подчёркивают: «Первые опыты показали, что они роботы способны вырабатывать убедительные аргументы, однако способность подбирать их под конкретных людей не изучалась».

Исследование подчёркивает необходимость жёсткого регулирования и контроля ИИ на дискуссионных платформах, чтобы минимизировать риск манипуляции мнением социума. Особенно важно обеспечить прозрачность в отношении того, когда собеседником пользователя является машина, а не человек.