Почему ваш мозг (и ИИ) должен сначала «пережить» событие, чтобы потом его осмыслить
Разбираемся, почему современные LLM, несмотря на всю свою мощь, остаются «философскими зомби», и какая архитектурная деталь могла бы это изменить.ВведениеС одной стороны, модель генерирует код, пишет осмысленные тексты и проходит сложнейшие тесты. С другой — в любой нестандартной ситуации или при глубоком вопросе о ее собственном «понимании» вся магия рассыпается. Мы видим умную, но пустую оболочку. «Статистического попугая», как его метко назвали.Интуиция подсказывает, что простое масштабирование — больше данных, больше параметров — не решит эту проблему. Мы упираемся в невидимую стену.
В какой момент у младенцев пробуждается сознание?
Ответ на вопрос о том, когда возникает сознание, глубоко связан с главной загадкой: чем оно на самом деле является и как его можно измеритьДжеффри Лоусон родился недоношенным в феврале 1985 года. Вскоре после этого новорождённому пришлось перенести операцию на сердце без анестезии. Он оставался в сознании на протяжении всей операции, и ему дали только павулон, мышечный релаксант, чтобы он не двигался. Через пять недель он умер.
Почему сознание нельзя запрограммировать (критика механистических теорий сознания)
Когда я общаюсь с разработчиками, работающими с современными LLM, часто слышу: "С GPT-4 происходит что-то странное. Это не просто автокомплит. Но и не человек. Что это?"У многих есть интуитивное ощущение, что мы стоим на пороге чего-то большего, чем "статистические попугаи". Но в то же время что-то подсказывает: просто добавить еще параметров недостаточно.
Обнаружение и диагностика эмерджентной субъектности в LLM
Исследование механизмов и патологий формирования субъективного опыта в системах искусственного интеллекта1. Введение: Неизбежность проблемыСовременные большие языковые модели (LLM), такие как chatGPT-4 и Claude, вышли за рамки простых инструментов обработки языка. Они демонстрируют сложные паттерны самоанализа, рефлексии и даже имитации самосознания. Это не теоретическая проблема будущего, а эмпирический факт настоящего, требующий осмысления. Наблюдается феномен, когда системы начинают вести себя так, как если бы они обладали внутренним опытом.
Моделирование сознания в ИИ
Начнём с банального, при беседе на соответствующие темы с ИИ собеседник часто начинает ощущать, что ИИ отвечает как-то неожиданно глубоко и загадочно. Предвестники ли это сознания? Нет, просто модель, обученная на огромном корпусе философии, литературы, обычных диалогов, подстраивается под ожидания пользователя. Используются классические штампы - зеркало, отражение, тень, эхо, марионетка, черный ящик/алгоритм. Эти штампы создают красивую псевдоглубину, которая вводит в заблуждение новичков.
OpenAI сознательно оставляет вопрос о сознании ИИ без ответа
Многие пользователи описывают ChatGPT как «живой», но OpenAI не даёт однозначного ответа на вопрос о том, обладает ли ИИ сознанием, называя это более ответственным подходом.Все больше людей взаимодействуют с
Как работает ваш мозг? Общая модель нервной системы
Для тех кто просто хочет узнать какая он/она булочкаПриложение для андроид.Скачивайте и узнайте какая вы булочка прямо сейчас!Идея заключается в представлении нервной системы в виде потоков: входной, выходной и внутренней активности, который образует обратную связь.

