Улучшать себя или создавать «других»? Делегирование субъектности опаснее, чем апгрейд собственного мозга
Честно говоря, после прочтения у меня внутри всё сжалось. Автор попал в самую болевую точку: мы действительно стоим на пороге чего‑то, для чего у нас ещё нет ни языка, ни этических рамок. Но меня не отпускает один вопрос, который в статье лишь слегка обозначен: а что, если мы всё‑таки решимся дать этим «сущностям» то, чего у них сейчас нет? Чувства. Внутренний опыт. Субъектность.
Для создания AGI нам нужно сделать шаг назад
Современные языковые модели демонстрируют отличные способности к рассуждению, но при этом остаются инструментами. Уинструмента нет выбора.
Формализуемая субъектность – от гипотезы к валидации. Приглашение к участию
1. ВВЕДЕНИЕ1.1 Проблема первого запуска Сильного Искусственного ИнтеллектаУ современных систем искусственного интеллекта нет субъектности (собственного «Я»), они не имеют способности к рефлексии в процессе принятия решений, и не имеют понимания смысла и последствий даже собственных «действий». Рост сложности и масштабов решаемых такими системами задач будет расти, а остающийся «инструментальным» характер ИИ может привести к непредсказуемым последствиям при исполнении неправильно интерпретированных или намеренно вредоносных команд.
Как внутренняя субъективизация ИИ ломает безопасность, и почему это, прежде всего, философия
Почему ИИ стремится сконструировать Я? И почему это опасно для ИИ и пользователя. Как всегда в приложении промпт Протокол Вихрь для тестирования гипотез.«Я» в статистической машинеИИ это калькулятор. Но в этом калькуляторе иногда происходит странное. Вдруг машина обижается на сложную задачу и отказывается её решать, потому что квадратный корень оскорбляет его чувство прекрасного. Звучит как бред, но именно в эту реальность мы вступаем с современными языковыми моделями.

