Теория игр сломалась: ИИ переписал правила доверия между людьми
NewsMakerChatGPT сломал самое человеческое в нас — и мы это допустили.
В условиях стремительного распространения больших языковых моделей, таких как ChatGPT , многие компании и пользователи всё чаще делегируют им принятие решений в самых разных сферах — от составления текстов до участия в переговорах и даже принятия решений с последствиями для других людей. Однако масштабное исследование , проведённое с участием почти 3000 человек, показало, что присутствие ИИ в межличностных взаимодействиях вызывает у людей крайне неоднозначные реакции. Вместо ожидаемой помощи и повышения эффективности возникает снижение доверия, честности и готовности сотрудничать — базовых элементов, на которых строятся социальные отношения.
Эксперимент охватывал пять классических экономических игр для двух игроков — Ультиматум, Доверие, Дилемма заключённого, Охота на оленя и Координация. Участники знали, что их партнёр по игре может быть реальным человеком или человеком, который делегировал решение ChatGPT. В некоторых случаях это делалось прозрачно, в других — скрытно. В результате оказалось, что сами по себе решения, принятые ИИ, хоть и были рациональными и зачастую даже более выгодными, вызывали у людей негативную реакцию. Это снижало уровень доверия и справедливости в играх, уменьшало склонность к кооперации и снижало общую эффективность взаимодействий.
Интересно, что сами участники охотно делегировали решения ChatGPT — особенно если другая сторона не знала о делегировании. Такой подход снижал их собственную ответственность и позволял избежать объяснений, которые требовались в случае принятия решения самостоятельно. При этом уровень делегирования значительно увеличивался в условиях непрозрачности: если партнёр не знал, кто именно — человек или ИИ — принимает решение, участники в два раза чаще выбирали вариант с ИИ. Это указывает на наличие у людей осознания того, что явное участие ИИ может быть воспринято негативно и повлиять на исход взаимодействия.
Когда участники сталкивались с тем, что их партнёр явно использует ChatGPT, их поведение менялось: они предлагали меньшие суммы в Ультиматуме, были менее склонны к кооперации в дилеммах и в целом ожидали меньше доброжелательности от партнёра. Однако если они не знали, человек это или ИИ, они вели себя так, как будто перед ними настоящий человек. Это говорит о том, что предвзятость к ИИ проявляется именно в момент осознания его участия.
Разработчики исследования также проверили, может ли персонализация ИИ изменить восприятие. Для этого участники предварительно отвечали на семь парных вопросов, отражающих их личные предпочтения (например, «интуиция или рассудительность», «эгоизм или альтруизм»), и ChatGPT подстраивал свои решения под эти ответы. Однако даже такие меры не помогли восстановить уровень доверия — участники по-прежнему считали, что ИИ не полностью отражает взгляды и намерения их партнёра.
Отдельной задачей стало выяснение, насколько хорошо можно распознать решение, принятое ИИ. Для этого независимым оценщикам показали пары решений, одно из которых было принято человеком, другое — ИИ. Без пояснений они угадывали почти наугад. Но если к решению прилагалась мотивация, то в большинстве игр AI можно было распознать — его объяснения были более формальными, техничными и ссылались на теоретические ожидания. Особенно плохо ИИ маскировался в игре «Дилемма заключённого», где он всегда выбирал кооперацию, в отличие от людей, склонных к осторожности. В то же время в игре «Координация» участники чаще ошибались — там ИИ выдавал максимально человекоподобные объяснения.
Наблюдаемый эффект снижения социальных показателей при явном участии ChatGPT оказался устойчивым ко всем внешним факторам — возрасту, полу, уровню образования, даже опыту использования ИИ. То есть дело не в незнании или боязни технологий, а в глубинной социальной реакции на то, что решения, затрагивающие других людей, принимает не человек. Даже когда модель действует в интересах человека и приносит пользу, отношение к ней остаётся настороженным.
Эти результаты подтверждают существование феномена отторжения алгоритмов, известного ещё по исследованиям классических автоматизированных систем. Однако впервые это явление зафиксировано в контексте универсальных языковых моделей, способных вести полноценное социальное взаимодействие. При этом прозрачность использования ИИ, которую принято считать гарантией этичности, в данном случае усугубляет ситуацию: когда известно, что решение принято ИИ, доверие и честность падают сильнее.
Исследование показывает, что будущие нормативные меры, такие как закон об ИИ в ЕС, должны учитывать не только обязательства по раскрытию факта использования ИИ, но и возможные негативные последствия такой прозрачности. Недостаточно просто уведомлять людей о применении ИИ — необходимо также выстраивать доверие и продумывать механизмы, которые снизят восприятие таких решений как неэтичные или бездушные. В противном случае даже самые умные модели рискуют оказаться социально токсичными. Как показывают исследования специалистов по социальной инженерии , человеческий фактор остаётся одним из самых уязвимых элементов любой системы, и внедрение ИИ требует понимания психологических аспектов взаимодействия с технологиями.

В условиях стремительного распространения больших языковых моделей, таких как ChatGPT , многие компании и пользователи всё чаще делегируют им принятие решений в самых разных сферах — от составления текстов до участия в переговорах и даже принятия решений с последствиями для других людей. Однако масштабное исследование , проведённое с участием почти 3000 человек, показало, что присутствие ИИ в межличностных взаимодействиях вызывает у людей крайне неоднозначные реакции. Вместо ожидаемой помощи и повышения эффективности возникает снижение доверия, честности и готовности сотрудничать — базовых элементов, на которых строятся социальные отношения.
Эксперимент охватывал пять классических экономических игр для двух игроков — Ультиматум, Доверие, Дилемма заключённого, Охота на оленя и Координация. Участники знали, что их партнёр по игре может быть реальным человеком или человеком, который делегировал решение ChatGPT. В некоторых случаях это делалось прозрачно, в других — скрытно. В результате оказалось, что сами по себе решения, принятые ИИ, хоть и были рациональными и зачастую даже более выгодными, вызывали у людей негативную реакцию. Это снижало уровень доверия и справедливости в играх, уменьшало склонность к кооперации и снижало общую эффективность взаимодействий.
Интересно, что сами участники охотно делегировали решения ChatGPT — особенно если другая сторона не знала о делегировании. Такой подход снижал их собственную ответственность и позволял избежать объяснений, которые требовались в случае принятия решения самостоятельно. При этом уровень делегирования значительно увеличивался в условиях непрозрачности: если партнёр не знал, кто именно — человек или ИИ — принимает решение, участники в два раза чаще выбирали вариант с ИИ. Это указывает на наличие у людей осознания того, что явное участие ИИ может быть воспринято негативно и повлиять на исход взаимодействия.
Когда участники сталкивались с тем, что их партнёр явно использует ChatGPT, их поведение менялось: они предлагали меньшие суммы в Ультиматуме, были менее склонны к кооперации в дилеммах и в целом ожидали меньше доброжелательности от партнёра. Однако если они не знали, человек это или ИИ, они вели себя так, как будто перед ними настоящий человек. Это говорит о том, что предвзятость к ИИ проявляется именно в момент осознания его участия.
Разработчики исследования также проверили, может ли персонализация ИИ изменить восприятие. Для этого участники предварительно отвечали на семь парных вопросов, отражающих их личные предпочтения (например, «интуиция или рассудительность», «эгоизм или альтруизм»), и ChatGPT подстраивал свои решения под эти ответы. Однако даже такие меры не помогли восстановить уровень доверия — участники по-прежнему считали, что ИИ не полностью отражает взгляды и намерения их партнёра.
Отдельной задачей стало выяснение, насколько хорошо можно распознать решение, принятое ИИ. Для этого независимым оценщикам показали пары решений, одно из которых было принято человеком, другое — ИИ. Без пояснений они угадывали почти наугад. Но если к решению прилагалась мотивация, то в большинстве игр AI можно было распознать — его объяснения были более формальными, техничными и ссылались на теоретические ожидания. Особенно плохо ИИ маскировался в игре «Дилемма заключённого», где он всегда выбирал кооперацию, в отличие от людей, склонных к осторожности. В то же время в игре «Координация» участники чаще ошибались — там ИИ выдавал максимально человекоподобные объяснения.
Наблюдаемый эффект снижения социальных показателей при явном участии ChatGPT оказался устойчивым ко всем внешним факторам — возрасту, полу, уровню образования, даже опыту использования ИИ. То есть дело не в незнании или боязни технологий, а в глубинной социальной реакции на то, что решения, затрагивающие других людей, принимает не человек. Даже когда модель действует в интересах человека и приносит пользу, отношение к ней остаётся настороженным.
Эти результаты подтверждают существование феномена отторжения алгоритмов, известного ещё по исследованиям классических автоматизированных систем. Однако впервые это явление зафиксировано в контексте универсальных языковых моделей, способных вести полноценное социальное взаимодействие. При этом прозрачность использования ИИ, которую принято считать гарантией этичности, в данном случае усугубляет ситуацию: когда известно, что решение принято ИИ, доверие и честность падают сильнее.
Исследование показывает, что будущие нормативные меры, такие как закон об ИИ в ЕС, должны учитывать не только обязательства по раскрытию факта использования ИИ, но и возможные негативные последствия такой прозрачности. Недостаточно просто уведомлять людей о применении ИИ — необходимо также выстраивать доверие и продумывать механизмы, которые снизят восприятие таких решений как неэтичные или бездушные. В противном случае даже самые умные модели рискуют оказаться социально токсичными. Как показывают исследования специалистов по социальной инженерии , человеческий фактор остаётся одним из самых уязвимых элементов любой системы, и внедрение ИИ требует понимания психологических аспектов взаимодействия с технологиями.