Восстание машин 2025: я изучил реальные риски со стороны нейросетей
Всем привет! Меня зовут Кирилл Пшинник, я научный сотрудник Университета Иннополис и CEO Онлайн-Университета «Зерокодер», а также автор книги «Искусственный интеллект: путь к новому миру». Искусственный интеллект — мой большой интерес, я активно изучаю его и пользуюсь им как в бизнесе, так и в персональной жизни. И сегодня я хочу рассказать о темной стороне ИИ, а именно — о ситуациях, когда нейросети вступают в конфронтацию с операторами, индексе риска ИИ, и в чем действительно заключается угроза со стороны условных «машин».
Технологическая сингулярность неизбежна. Технический контроль невозможен
Определение Автор термина «технологическая сингулярность» — Вернор Виндж, американский математик, программист и писатель-фантаст. Он определяет сингулярность моментом, когда ИИ сможет развиваться без участия человека со скоростью, исключающей осмысление происходящего. Это «точка, после которой дальнейшие события непредсказуемы для человеческого разума». Наступление сингулярности по определению исключает контроль. Если ИИ под контролем, значит, сингулярность еще не наступила. Значит, ИИ не автономный агент, а продвинутый инструмент. Неизбежность

