СМИ подали слова учёных так, будто человечеству осталось совсем недолго: мол, уже к середине 2030-х нас вытеснит суперинтеллект. Имя этой угрозы — AGI. По сути, речь идет о следующем этапе развития искусственного интеллекта. И если вас уже сейчас впечатляет то, что умеют нейросети, то масштабы того, что приписывают AGI, выглядят куда тревожнее. По мнению многих, это уже не просто инструмент, а потенциальная замена человеку.

Но действительно ли всё настолько мрачно, как это рисуют в заголовках? Давайте спокойно разберёмся, что именно ученые пишут про AGI в научных публикациях — без истерики, громких клише и медийных преувеличений.
Что такое AGI
AGI (artificial general intelligence) обычно описывают как тип искусственного интеллекта, который способен решать не одну узкую задачу, а широкий спектр когнитивных задач — на уровне человека или даже выше.
В OpenAI формулируют это так: AGI — это «высокоавтономные системы, которые превосходят людей в большинстве экономически значимых видов деятельности». В свою очередь, в Google DeepMind говорят об ИИ, который «как минимум сопоставим с человеком по способностям в большинстве когнитивных задач».
При этом важно понимать: даже среди ведущих специалистов нет единого, чёткого определения. Например, Джеффри Хинтон отмечал, что AGI — это «важная, но размытая концепция», вокруг которой до сих пор нет полного согласия. Сам он предлагает считать AGI системой, способной выполнять практически любые когнитивные задачи не хуже человека.
LLM и AGI: в чём разница
LLM (large language models) — это большие языковые модели, заточенные под работу с текстом. Их основная задача — предсказывать следующий токен: на этом строится генерация текста, ответы на вопросы, пересказ, программирование и диалог. Даже когда такие модели кажутся «разумными», это всё ещё не универсальный интеллект в полном смысле.
Исследователи из Queensland University of Technology и University of Queensland в обзоре 2024 года прямо отмечают ограничения LLM: они могут «галлюцинировать», то есть уверенно выдавать правдоподобную, но неверную информацию. Поэтому в задачах, где важна точность, их ответы необходимо проверять по надёжным источникам.

Когда впервые начали говорить об AGI
Если рассматривать именно термин, а не саму идею, выражение artificial general intelligence впервые предложил Марк Губруд ещё в 1997 году. Позже, в начале 2000-х, его заново ввели в активное использование и популяризировали Бен Гёрцель и Шейн Легг. Уже в 2006 году прошёл воркшоп AGIRI с темой «Transitioning from Narrow AI to Artificial General Intelligence» — тогда всерьёз обсуждали переход от узкоспециализированных систем к более универсальному интеллекту.
При этом сама концепция «универсально мыслящей машины» появилась задолго до этого. Ещё в XX веке пионеры искусственного интеллекта стремились создать не просто инструменты для отдельных задач — вроде обработки текста или распознавания изображений, — а системы, способные мыслить широко и решать разнообразные проблемы.
Но именно в 2000-х годах AGI окончательно закрепился как отдельный термин и стал использоваться для обозначения этой более амбициозной цели.
Актуальное мнение учёных и специалистов по ML
Джеффри Хинтон говорит, что, во-первых, определения AGI плавают, и это не до конца технический термин. Во-вторых, в декабре 2024 года Хинтон говорил о вероятности в 10–20%, что ИИ может привести к вымиранию человечества в ближайшие 30 лет.
Демис Хассабис из Google DeepMind считает, что AGI как система, способная к настоящему научному открытию и постановке новых объяснений мира, может появиться через 5–10 лет.
Эндрю Ын, наоборот, в интервью Fast Company сказал, что «настоящий AGI» — ИИ, способный выполнять весь спектр интеллектуальных задач человека, — остаётся делом десятилетий, а практическая ценность сейчас скорее в ИИ-агентах и прикладных системах.
Дата, когда AGI заменит человека
Почему вокруг AGI на Западе сформировался почти культ — причём с откровенно тревожным оттенком? Всё чаще в обсуждениях всплывает образ некого «всевидящего ИИ-прокуратора», который выходит из-под контроля.
Одна из самых обсуждаемых «дат» последних месяцев — 2027 год. Она разошлась после публикации группы авторов во главе с бывшим сотрудником OpenAI Дэниелом Кокотайло. Их проект — это попытка не просто порассуждать, а дать более-менее конкретный сценарий развития ИИ с привязкой ко времени.

Дальше сработала классическая медийная цепная реакция. Журнал Inc. в январе 2026 года вышел с громким заголовком в духе: «Эксперт по ИИ предсказал конец человечества к 2027 году — и теперь пересматривает сроки». В материале объяснялось, что в одной из версий сценария допускалось: уже к апрелю 2027 года неконтролируемый рост ИИ может привести к появлению суперинтеллекта и, в крайнем варианте, к гибели человечества.
Затем тему подхватил The Guardian. В январе 2026 года издание написало, что в исходной версии AI 2027 рассматривалась развилка: после фазы автономного ускорения разработки ИИ один из сценариев ведёт к исчезновению людей уже к середине 2030-х. При этом сам Кокотайло позже скорректировал оценки — он сдвинул возможное появление суперинтеллекта ближе к 2034 году и отказался называть точные сроки каких-либо катастрофических исходов.
Итак
AGI всё ещё остаётся теоретической концепцией, но сами технологии уже подошли к уровню, где ИИ перестаёт быть просто инструментом и начинает выглядеть как реальный конкурент человеку — особенно в интеллектуальном труде.
Поэтому главный вопрос сегодня — не «появился ли AGI», а как быстро системы, приближающиеся к нему, начнут вытеснять людей из профессий и менять рынок труда.
Если хотите не отставать от этих изменений и понимать, куда всё движется, стоит следить за развитием нейросетей и учиться применять их на практике. Мы разбираем новые инструменты, объясняем тренды и показываем, как использовать ИИ так, чтобы оставаться востребованным.
Следите за обновлениями и оставайтесь на стороне тех, кто адаптируется быстрее — в такие периоды именно это и определяет, кто окажется впереди.
Автор: tsnis_journal


