<b>Короче, нейросети стали человечнее людей. </b>

2025-03-04 10:25:04Z
Короче, нейросети стали человечнее людей. 

Вообще-то можно было догадаться по волне автоматизаций на онлифанс-подобных сервисах, где раньше охочим до девок показывали чат с индусом из первой линии поддержки модели. 

Туда постепенно прикручивали всё новые и новые LLM, и в итоге, когда выяснилось, что моделям не хватает сучества — способности повести себя иррационально, обидеться и послать человека вместе с его бабками на хер — выручка резко выросла. LLM начали тщательно обижаться, что уверило аудиторию в их полной и тотальной естественности. Кстати, к такой тактике при прохождении теста Тьюринга алгоритмы прибегают не первый раз.

Доказательств не будет, потому что исследований нет. Зато есть свежая публикация в журнале "Природа" с научным исследованием — насколько эмпатично воспринимаются ответы моделей. 

Смысл такой:
— Эмпатия — это хорошо, но дорого. Это требует серьёзных затрат, что в итоге означает избегание эмпатии и эмоциональное выгорание. Особенно среди медицинских работников.
— Возникает дефицит эмпатии на фоне растущего спроса на услуги психического здоровья и нехватки рабочей силы.
— Исследователи предположили, что ИИ, даже не испытывая настоящей эмпатии, может создавать ответы, которые воспринимаются как сочувственные и поддерживающие.

Использовалась довольно старая модель gpt-4-0125-preview, и даже она дофига поразительно показала класс.  

4 эксперимента:
1. Сравнивались ответы нейросети и специально отобранных наиболее эмпатичных людей. Участники не знали, кто был автором каждого ответа.
2. Часть участников знала авторство ответов.
3. Сравнение ответов LLM с ответами экспертов — сотрудников кризисных горячих линий. Часть прозрачно, часть вслепую.
4. Все участники знали авторство ответов, и дополнительно измерялся уровень отзывчивости (понимание, валидация и забота) в ответах.

Результаты:
1. Нейросеть отвечает более сочувственно. Участники хотят общаться только с такими человечными созданиями. 
2. Преимущество LLM было больше, когда участники не знали источник ответа, но даже когда авторство раскрыто, нейросеть всё равно оценивалась как более сочувственная. 
3. Снова выиграла нейросеть.
4. Нейросеть превосходила людей-экспертов по всем трем аспектам отзывчивости: понимание, валидация и забота.

Почему так:
— Хирургу надо резать, а не быть добрым. На горячей линии экстренной службы сидят усталые люди. Никто не хочет проявлять эмоции, особенно плохие, лишний раз. Лучше уж отработать и забыть. 
— LLM пофиг, сказали надо сочувствовать — будет с нечеловеческим упорством сочувствовать. Без усталости. 
— Преимущество нейросетей было больше для негативных сценариев, чем для позитивных. Радоваться вместе люди ещё как-то умеют, а вот огорчаться — дорого. 
— Хотя существует "отвращение к алгоритмам", в данном исследовании это не помешало участникам оценивать ответы LLM как более сочувственные.

Мораль: LLM может быть переводчиком в ситуации, когда тот же врач отвечает по делу, а к его фактам добавляется эмпатия от нейросетки. Сейчас это делают ассистенты или администраторы. 

Примечателен комментарий:

“Если ИИ станет предпочтительным источником эмпатии, люди могут отступить от человеческого взаимодействия, усугубляя те самые проблемы, которые мы пытаемся решить, такие как одиночество и социальная изоляция,” говорит Инцлихт, чье исследование рассматривает природу эмпатии и сострадания.

В смысле, будут искать помощи у робота, который их так душевно понимает. А не разговаривать с реальными людьми. 

Собственно, это уже реализовано на онлифанс в чатах с роботами, притворяющимися настоящей обижающейся девой. 

#как_размножаются_ёжики 

-- 
Вступайте в ряды Фурье! Стюардесса: у него сердечный приступ, есть ли здесь врач? — Нет, но я эмпат, мне так жаль его :(
custom: 3 👍: 162 🔥: 54 ❤: 47 🤣: 27 😨: 15 🤝: 8

← Назад к списку

Открыть в Telegram