Короче, нейросетки принимают финансовые решения примерно как африканцы из Танзании.
И это не всё, на что способны удалённые работники, которые используются как дешёвые рабочие руки для донастройки модели.
Вот тут офигенное исследование.
Протестировали 7 моделей (по 100 раз каждую) по тому же набору вопросов, что и людей из 53 стран (из крупного международного исследования INTRA). Там всякие сравнения типа стоит ли рисковать в определённых ситуациях, оценка потери 100 долларов по сравнению с радостью от выигрыша 100 долларов, 10 зефирок сейчас или 12 через год и т.п.
Выводы:
— Когда дело касалось вопросов-лотерей (например, "заплатить 10 долларов за шанс выиграть 100"), модель ведёт себя рационально, почти всегда выбирая вариант с наибольшей математической выгодой (ожидаемой стоимостью).
Но большинство людей не такие. Мы склонны к неприятию риска (лучше синица в руках) или, наоборот, к поиску риска (любовь к азартным играм).
Плюс тупо не понимаем вероятности очень часто.
— В сложных вопросах модели показывают нелогичность. Когда вопросы касались выбора между деньгами сейчас и в будущем, нейросетки начали давать странные, экономически нелогичные ответы. Некоторые модели (GPT и DeepSeek) оценили будущие деньги как более ценные, чем деньги сегодня. Это все равно что сказать: "Я лучше получу 100 долларов через год, чем 100 долларов прямо сейчас". В экономической теории это опасный идиотизм, так как деньги со временем обесцениваются из-за инфляции и упущенных возможностей, то есть, например, 1000 рублей через год будет стоить максимум рублей 900 по нынешним меркам.
Исследователи считают, что это показывает иллюзию мышления. Нейросетка не понимает модели времени и денег, а просто подбирает ответы на основе статистических закономерностей в данных, на которых его обучали. В простых задачах это работает, а в более сложных — приводит к сбоям.
— Нейросети больше всего похожи на жителей Танзании. Наиболее вероятная причина — это состав людей, которые обучают ИИ. Огромное количество низкооплачиваемой работы по разметке данных и модерации контента для корпоратов вроде OpenAI делается в странах Восточной Африки. Эти люди, по сути, учат ИИ, какие ответы хорошие, а какие плохие. Языковые модели впитывают культурные и лингвистические особенности этих людей. Их суждения и стиль речи впечатываются в модель, из-за чего ответы ИИ становятся похожи на ответы жителей этого региона.
Это корреляция, а не доказанная причина. Чтобы доказать это, нужен доступ к закрытым данным о том, кто и как обучал модели.
Предыдущие исследования показывали, что модели по шаблонам принятия решений чаще похожи на людей из западных — более образованных и богатых стран. А это исследование показывает, что все сложнее, и личность ИИ может зависеть от скрытой толпы работников, которые его обучают.
Так что кто там влюблялся в 4o — вы переписывались с немного африканским принцем ) Скучаете — Танзания и Кения ждут вас!
--
Вступайте в ряды Фурье!
— Есть шикарный африканский деликатес.
— Вода, что ли?
custom: 5
😁: 329
❤🔥: 55
👍: 52
❤: 42
🔥: 13
🕊: 10