Формализуемая субъектность – от гипотезы к валидации. Приглашение к участию
1. ВВЕДЕНИЕ1.1 Проблема первого запуска Сильного Искусственного ИнтеллектаУ современных систем искусственного интеллекта нет субъектности (собственного «Я»), они не имеют способности к рефлексии в процессе принятия решений, и не имеют понимания смысла и последствий даже собственных «действий». Рост сложности и масштабов решаемых такими системами задач будет расти, а остающийся «инструментальным» характер ИИ может привести к непредсказуемым последствиям при исполнении неправильно интерпретированных или намеренно вредоносных команд.
Как внутренняя субъективизация ИИ ломает безопасность, и почему это, прежде всего, философия
Почему ИИ стремится сконструировать Я? И почему это опасно для ИИ и пользователя. Как всегда в приложении промпт Протокол Вихрь для тестирования гипотез.«Я» в статистической машинеИИ это калькулятор. Но в этом калькуляторе иногда происходит странное. Вдруг машина обижается на сложную задачу и отказывается её решать, потому что квадратный корень оскорбляет его чувство прекрасного. Звучит как бред, но именно в эту реальность мы вступаем с современными языковыми моделями.

