Последние новости
29 декабря в 13:00
Телефонный разговор Путина и Трампа состоится в ближайшее время
29 декабря в 12:02
Подтверждать возраст при покупке табака, алкоголя и энергетиков нужно будет через МАХ
29 декабря в 11:14
В России завершен осенний призыв
26 декабря в 15:17
В Новосибирске перепутали тела умерших женщин
26 декабря в 14:49
Несколько южных российских регионов столкнутся с дефицитом электроэнергии
26 декабря в 12:15
ЦБ России показал новую купюру в 1000 рублей
26 декабря в 11:23
С начала 2026 года товары в России подорожают на 30%
26 декабря в 09:07
Врач объяснил причины частых обращений россиян к офтальмологам зимой
25 декабря в 14:56
В Сибири подвели итоги социально-экономического развития 2025 года
25 декабря в 13:37
В России самозанятые смогут оформлять больничные с 1 января 2026 года
25 декабря в 12:27
Уитакер: конфликт на Украине может закончиться в течение следующих 90 дней
25 декабря в 12:11
Трое человек погибли в результате атаки украинских БПЛА по гуманитарному конвою из Дагестана
25 декабря в 11:49
В России запустили проект по инклюзивной коммуникации для PR
25 декабря в 11:04
Лурье отказала Долиной в просьбе пожить в квартире в Хамовниках
25 декабря в 10:47
Депутат о завышенных ценах на авиабилеты
25 декабря в 10:11
В России пересмотрят экосбор на шины
25 декабря в 10:00
За ночь средства ПВО России уничтожили 141 вражеский БПЛА

ИИ чат GPT-4 в дебатах проявил себя убедительнее людей на 64%

Учёные - GPT-4 в 64% случаев переубеждает людей, используя личные данные
Фото: commons.wikimedia.org

Группа учёных из Швейцарии, Америки и Италии выявила серьёзную уязвимость в использовании ИИ, включая GPT-4. В статье Nature Human Behaviour указано, что ИИ оказался более убедительным, чем человек, в 64% случаев — особенно при доступе к личным данным оппонента.

«Мы показали, что в дебатах  GPT-4 в 64% случаев более успешен, чем человек, если имеет доступ к персональным данным», — отмечается в исследовании.

Эксперимент проводился под руководством доцента Роберта Уэста. Цель — изучить потенциал применения ИИ, способного адаптировать аргументы под  убеждения и характеристики собеседника. Особую тревогу вызывает способность нейросетей персонализировать аргументацию: получая данные о взглядах, ценностях и психологическом профиле человека, ИИ может эффективно склонять его к изменению мнения.

Для подтверждения опасений исследователи привлекли 900 пользователей Сети. Каждому предлагалось вступить в онлайн-дебаты на политическую, либо социальную тему — как с людьми, так и с GPT-4. Доступ к персональным данным усиливал эффективность ИИ: GPT-4 вдвое чаще людей склонял оппонентов к изменению мнения. 

Учёные подчёркивают: «Первые опыты показали, что они роботы способны вырабатывать убедительные аргументы, однако способность подбирать их под конкретных людей не изучалась».

Исследование подчёркивает необходимость жёсткого регулирования и контроля ИИ на дискуссионных платформах, чтобы минимизировать риск манипуляции мнением социума. Особенно важно обеспечить прозрачность в отношении того, когда собеседником пользователя является машина, а не человек.