У нас тут попытка создать руководство по оценке сознания у искусственного интеллекта. К точности ест
У нас тут попытка создать руководство по оценке сознания у искусственного интеллекта. К точности есть куча вопросов, но разбираем, что там.
Раньше использовалось 3 подхода:
- Тест Тьюринга (его проходили даже тупые до-LLM и не проходили некоторые люди)
- “По ощущениям, надо оценивать так”
- “Всё равно ты так не сможешь, псина… Ой, смог, ну сейчас посложнее придумаем!”
Мы не можем подойти к нейросетке и спросить: — Сознание есть? А если найду?!
Но можем взять лучшие научные теории о том, как сознание работает в человеческом мозге, и посмотреть, есть ли что-то похожее в архитектуре современных ИИ.
Ладно, сразу вывод: нет, сейчас ни одна из существующих систем (включая большие языковые модели вроде ChatGPT) не является сознательной. При этом с технологической точки зрения, нет никаких непреодолимых препятствий для создания сознательного ИИ.
Критерии:
- Вычислительный функционализм. Неважно, из чего сделан мозг, хоть из мяса. Важно, какие вычисления он производит. Никакой магии, просто покажите те же результаты, что при сознательном опыте.
- Но при этом важно, не что оно делает, а как. Современные LLM — имитаторы.
- Поскольку это два взаимоисключающих пункта, давайте вместо того чтобы изобретать новые критерии, берём уже существующие модели, проверенные на людях, и пытаемся найти у моделей.
Теория глобального рабочего пространства — в мозге есть много бессознательных специализированных модулей, которые работают параллельно. Например, один модуль распознаёт цвета, другой — формы, третий отвечает за слух — микросервисы, короче. Сознание возникает, когда какая-то важная информация выигрывает конкуренцию за внимание и попадает в глобальное рабочее пространство. Как только информация оказалась на этой сцене, она становится доступна всем остальным модулям. Они могут её использовать для планирования, запоминания, речи и т.д. Этот процесс трансляции на всех и есть сознательный опыт.
Теория рекуррентной обработки — прошлая теория неправа, и для сознания не нужны сложные когнитивные функции. Сознание возникает прямо в сенсорных областях мозга. Когда вы видите яблоко, сигнал сначала идет “вперед” по иерархии зрительной коры (от простых черт к сложным). Это бессознательный процесс. Сознание включается, когда сигнал начинает идти обратно — от высших областей к низшим. Эта циклическая обработка позволяет связать все признаки (цвет, форму, текстуру) в единый образ.
Теории высшего порядка утверждают, что для того, чтобы переживание стало сознательным, недостаточно просто иметь это переживание (например, зрительный образ красного яблока). Система должна также иметь представление о том, что у неё есть это переживание. “Да, это реальное восприятие, а не шум или воображение”. Чтобы системе вообще понадобилось отличать реальность от шума, у неё должны быть разные источники активации (например, реальные сенсорные данные, воображение, внутренний шум). Потом должен быть механизм, который отслеживает и различает надежные перцептивные представления от ненадежных.
Плюс теория схемы внимания, предиктивное кодирование (мозг — это машина предсказаний), агентность и воплощение.
В итоге просто собираем все критерии и смотрим, что получилось для трансформеров и более продвинутых архитектур: — LLM-трансформеры — сразу идут лесом. — Perceiver (свёртки трансформеров + обрабатывающий штаб) — ближе к сознанию. — PaLM-E, “виртуальная крыса” — учатся на обратной связи и могут строить модели своего тела, но всё равно пока слишком простые.
Дальше авторы говорят, что надо всё проверять на такие критерии, а то вдруг создадим сознательное существо, способное страдать, но не признаем этого. Ну или мы начнем приписывать сознание системам, у которых его нет. Найдутся упоротые активисты, которые будут тратить огромные ресурсы на защиту “прав” не-сознательных ботов, хотя вот же есть коровы.
— Вступайте в ряды Фурье! — Как называют человека, который обычно тусуется с музыкантами? — Барабанщик!