Короче, нейросети стали человечнее людей.
Короче, нейросети стали человечнее людей.
Вообще-то можно было догадаться по волне автоматизаций на онлифанс-подобных сервисах, где раньше охочим до девок показывали чат с индусом из первой линии поддержки модели.
Туда постепенно прикручивали всё новые и новые LLM, и в итоге, когда выяснилось, что моделям не хватает сучества — способности повести себя иррационально, обидеться и послать человека вместе с его бабками на хер — выручка резко выросла. LLM начали тщательно обижаться, что уверило аудиторию в их полной и тотальной естественности. Кстати, к такой тактике при прохождении теста Тьюринга алгоритмы прибегают не первый раз.
Доказательств не будет, потому что исследований нет. Зато есть свежая публикация в журнале “Природа” с научным исследованием — насколько эмпатично воспринимаются ответы моделей.
Смысл такой: — Эмпатия — это хорошо, но дорого. Это требует серьёзных затрат, что в итоге означает избегание эмпатии и эмоциональное выгорание. Особенно среди медицинских работников. — Возникает дефицит эмпатии на фоне растущего спроса на услуги психического здоровья и нехватки рабочей силы. — Исследователи предположили, что ИИ, даже не испытывая настоящей эмпатии, может создавать ответы, которые воспринимаются как сочувственные и поддерживающие.
Использовалась довольно старая модель gpt-4-0125-preview, и даже она дофига поразительно показала класс.
4 эксперимента:
- Сравнивались ответы нейросети и специально отобранных наиболее эмпатичных людей. Участники не знали, кто был автором каждого ответа.
- Часть участников знала авторство ответов.
- Сравнение ответов LLM с ответами экспертов — сотрудников кризисных горячих линий. Часть прозрачно, часть вслепую.
- Все участники знали авторство ответов, и дополнительно измерялся уровень отзывчивости (понимание, валидация и забота) в ответах.
Результаты:
- Нейросеть отвечает более сочувственно. Участники хотят общаться только с такими человечными созданиями.
- Преимущество LLM было больше, когда участники не знали источник ответа, но даже когда авторство раскрыто, нейросеть всё равно оценивалась как более сочувственная.
- Снова выиграла нейросеть.
- Нейросеть превосходила людей-экспертов по всем трем аспектам отзывчивости: понимание, валидация и забота.
Почему так: — Хирургу надо резать, а не быть добрым. На горячей линии экстренной службы сидят усталые люди. Никто не хочет проявлять эмоции, особенно плохие, лишний раз. Лучше уж отработать и забыть. — LLM пофиг, сказали надо сочувствовать — будет с нечеловеческим упорством сочувствовать. Без усталости. — Преимущество нейросетей было больше для негативных сценариев, чем для позитивных. Радоваться вместе люди ещё как-то умеют, а вот огорчаться — дорого. — Хотя существует “отвращение к алгоритмам”, в данном исследовании это не помешало участникам оценивать ответы LLM как более сочувственные.
Мораль: LLM может быть переводчиком в ситуации, когда тот же врач отвечает по делу, а к его фактам добавляется эмпатия от нейросетки. Сейчас это делают ассистенты или администраторы.
Примечателен комментарий:
“Если ИИ станет предпочтительным источником эмпатии, люди могут отступить от человеческого взаимодействия, усугубляя те самые проблемы, которые мы пытаемся решить, такие как одиночество и социальная изоляция,” говорит Инцлихт, чье исследование рассматривает природу эмпатии и сострадания.
В смысле, будут искать помощи у робота, который их так душевно понимает. А не разговаривать с реальными людьми.
Собственно, это уже реализовано на онлифанс в чатах с роботами, притворяющимися настоящей обижающейся девой.
#как_размножаются_ёжики
— Вступайте в ряды Фурье! Стюардесса: у него сердечный приступ, есть ли здесь врач? — Нет, но я эмпат, мне так жаль его :(