Мы используем файлы cookie для нормальной работы сайта

Пользуясь нашим сайтом вы соглашаетесь на использование файлов cookie

USD: 2.82 BYN EUR: 3.3 BYN RUB100: 3.77 BYN
Гомель +8.9 °C
  • RU
  • BY
  • ENG

Телеканал Гомель ТВ - в IPTV ZALA--24 канал по Гомельской области VOKA-198 канал в Гомеле, Добруше и Речице

Смотрите на кабельных каналах А1 и цифровых приставках DVB-T

Слушать онлайн

Радио 107.4 FM

Cейчас в эфире

Телеканал Гомель ТВ - в IPTV ZALA--24 канал по Гомельской области VOKA-198 канал в Гомеле, Добруше и Речице

Смотрите на кабельных каналах А1 и цифровых приставках DVB-T

Слушайте Радио 107.4 FM

В США прошло масштабное исследование: люди не могут опознать текст ИИ

Большинство людей не способны распознать сообщения, написанные с помощью ИИ, и по умолчанию воспринимают их как написанные человеком. Однако стоит им узнать о применении ИИ, отношение к отправителю резко ухудшается. Таковы выводы исследования, опубликованного в журнале Computers in Human Behavior в феврале 2026 года.

Авторы работы — психологи Цзяци Чжу и Андрас Мольнар из Мичиганского университета. Они провели два онлайн-эксперимента с перерывом около семи месяцев. В первом участвовали 647 жителей США, во втором — 654. Каждому участнику предлагали прочесть короткие сообщения на бытовые темы: благодарственные письма, отклики на вакансии, рабочие комментарии, посты в соцсетях, сообщения с извинениями и анкеты на сайтах знакомств. Участников делили на 4 группы: одним говорили, что текст написал человек, другим — что его создал ИИ, третьим — что источник неизвестен, четвёртым не давали никакой информации вообще. Главный итог оказался неожиданным: когда информации о происхождении текста не было, участники оценивали отправителя столь же положительно, как и в случае, когда были уверены — сообщение написал человек. Примечательно, что даже люди, которые сами активно пользуются инструментами вроде ChatGPT, не становились более подозрительными в повседневной переписке. Опыт использования ИИ не научил их лучше распознавать его у других.  

Картина кардинально менялась, когда факт использования ИИ раскрывался. Участники заметно хуже оценивали автора: уровень доверия, ощущение искренности и симпатии к нему падали. Во втором эксперименте выяснили и причину: если человек считал, что текст написан ИИ, он предполагал, что автор потратил меньше времени и усилий и что сообщение плохо отражает его настоящие чувства. Именно ощущение «низкого усилия» и неискренности объясняло негативную реакцию. Интересно, что само по себе подозрение в использовании ИИ почти не портило впечатление. В ситуации неопределённости оценки участников оставались близкими к «человеческому» сценарию, а не к «ИИ». То есть одних подозрений недостаточно — важно именно прямое знание. Авторы исследования отмечают, что в повседневной жизни — в отличие от академической среды — использование ИИ в переписке по-прежнему остаётся в «серой зоне»: люди редко раскрывают, что прибегали к помощи алгоритмов при написании сообщений.

Sciencexxi.com.

Поделиться:

Вернуться назад

Другие новости