Короче, нейросетки принимают финансовые решения примерно как африканцы

2025-09-03 07:02:01Z
Короче, нейросетки принимают финансовые решения примерно как африканцы из Танзании. 

И это не всё, на что способны удалённые работники, которые используются как дешёвые рабочие руки для донастройки модели. 

Вот тут офигенное исследование.

Протестировали 7 моделей (по 100 раз каждую) по тому же набору вопросов, что и людей из 53 стран (из крупного международного исследования INTRA). Там всякие сравнения типа стоит ли рисковать в определённых ситуациях, оценка потери 100 долларов по сравнению с радостью от выигрыша 100 долларов, 10 зефирок сейчас или 12 через год и т.п. 

Выводы:
— Когда дело касалось вопросов-лотерей (например, "заплатить 10 долларов за шанс выиграть 100"), модель ведёт себя рационально, почти всегда выбирая вариант с наибольшей математической выгодой (ожидаемой стоимостью). 

Но большинство людей не такие. Мы склонны к неприятию риска (лучше синица в руках) или, наоборот, к поиску риска (любовь к азартным играм). 

Плюс тупо не понимаем вероятности очень часто.

— В сложных вопросах модели показывают нелогичность. Когда вопросы касались выбора между деньгами сейчас и в будущем, нейросетки начали давать странные, экономически нелогичные ответы. Некоторые модели (GPT и DeepSeek) оценили будущие деньги как более ценные, чем деньги сегодня. Это все равно что сказать: "Я лучше получу 100 долларов через год, чем 100 долларов прямо сейчас". В экономической теории это опасный идиотизм, так как деньги со временем обесцениваются из-за инфляции и упущенных возможностей, то есть, например, 1000 рублей через год будет стоить максимум рублей 900 по нынешним меркам. 

Исследователи считают, что это показывает иллюзию мышления. Нейросетка не понимает модели времени и денег, а просто подбирает ответы на основе статистических закономерностей в данных, на которых его обучали. В простых задачах это работает, а в более сложных — приводит к сбоям.

— Нейросети больше всего похожи на жителей Танзании. Наиболее вероятная причина — это состав людей, которые обучают ИИ. Огромное количество низкооплачиваемой работы по разметке данных и модерации контента для корпоратов вроде OpenAI делается в странах Восточной Африки. Эти люди, по сути, учат ИИ, какие ответы хорошие, а какие плохие. Языковые модели впитывают культурные и лингвистические особенности этих людей. Их суждения и стиль речи впечатываются в модель, из-за чего ответы ИИ становятся похожи на ответы жителей этого региона.

Это корреляция, а не доказанная причина. Чтобы доказать это, нужен доступ к закрытым данным о том, кто и как обучал модели.

Предыдущие исследования показывали, что модели по шаблонам принятия решений чаще похожи на людей из западных — более образованных и богатых стран. А это исследование показывает, что все сложнее, и личность ИИ может зависеть от скрытой толпы работников, которые его обучают. 

Так что кто там влюблялся в 4o — вы переписывались с немного африканским принцем ) Скучаете — Танзания и Кения ждут вас!

-- 
Вступайте в ряды Фурье! 
— Есть шикарный африканский деликатес.
— Вода, что ли?
custom: 5 😁: 329 ❤‍🔥: 55 👍: 52 ❤: 42 🔥: 13 🕊: 10

← Назад к списку

Открыть в Telegram