Что сегодня действительно важно в AI: 10 направлений по версии MIT Technology Review. AI тренды 2026.. AI тренды 2026. llm.. AI тренды 2026. llm. mit.. AI тренды 2026. llm. mit. агенты AI.. AI тренды 2026. llm. mit. агенты AI. Блог компании OTUS.. AI тренды 2026. llm. mit. агенты AI. Блог компании OTUS. Информационная безопасность.. AI тренды 2026. llm. mit. агенты AI. Блог компании OTUS. Информационная безопасность. искусственный интеллект.. AI тренды 2026. llm. mit. агенты AI. Блог компании OTUS. Информационная безопасность. искусственный интеллект. киберугрозы.. AI тренды 2026. llm. mit. агенты AI. Блог компании OTUS. Информационная безопасность. искусственный интеллект. киберугрозы. Машинное обучение.. AI тренды 2026. llm. mit. агенты AI. Блог компании OTUS. Информационная безопасность. искусственный интеллект. киберугрозы. Машинное обучение. многоагентные системы.. AI тренды 2026. llm. mit. агенты AI. Блог компании OTUS. Информационная безопасность. искусственный интеллект. киберугрозы. Машинное обучение. многоагентные системы. тренды.

На что действительно стоит смотреть в перегретом и шумном мире AI, если хочется не пропустить важные сдвиги? Редакция MIT Technology Review не первый год следит за тем, как развивается эта сфера, какие идеи в ней набирают вес и куда в целом смещается баланс сил. В этой подборке собраны темы, которые уже сейчас двигают индустрию вперёд и во многом задают рамку для того, что станет возможным дальше.

Сначала рассмотрим изменения внутри самой технологии: новые архитектуры, подходы к данным и конкурирующие экосистемы. Затем — поговорим про выход AI в реальные контуры: от разработки и науки до критически важных систем. И, наконец, обратим внимание на последствия этого масштабирования — от роста атак до давления со стороны общества и государства.

Что сегодня действительно важно в AI: 10 направлений по версии MIT Technology Review - 1

Куда движется сама технология

Данные для гуманоидных роботов

Компании, которые делают гуманоидных роботов, всё активнее собирают данные о человеческих движениях — от бытовых действий до точной работы руками. Логика здесь та же, что и у больших языковых моделей: если текстовые модели выросли на огромных массивах текстов, то робототехнику нужен сопоставимый по масштабу массив данных о том, как человек двигается и взаимодействует с физическим миром.

Проблема в том, что такие данные нельзя просто «скачать из интернета». Раньше разработчики пытались обходиться симуляциями, но они плохо воспроизводят реальные свойства среды вроде трения, упругости и мелких отклонений, из-за чего поведение роботов в жизни часто оказывалось нестабильным.

Сейчас ставка сместилась на сбор данных из реального мира. Для этого используются и сравнительно простые эксперименты с записью бытовых действий, и более масштабные схемы: тренировочные центры с VR-оборудованием и экзоскелетами, удалённое управление роботами, а также запись движений сотрудников и исполнителей на сдельной работе. На фоне роста инвестиций в гуманоидную робототехнику этот сбор данных быстро превращается в отдельную гонку.

Но главный вопрос пока остаётся открытым: можно ли вообще собрать такие массивы данных в нужном объёме и превратить их в работающую и окупаемую технологию. Теоретически подход выглядит логично, но практическая ценность каждого отдельного фрагмента данных и масштаб, необходимый для прорыва, пока неочевидны.

LLM следующего поколения

После взрывного роста популярности больших языковых моделей стало ясно: следующий этап — не отказ от LLM, а их развитие. Индустрия пытается сделать такие модели дешевле, экономичнее и устойчивее при работе с длинными и сложными задачами, которые требуют не одного ответа, а последовательного рассуждения в несколько шагов.

Один из ключевых векторов — снижение вычислительных затрат. Для этого используются разные подходы: например, архитектуры, где модель разбивается на несколько специализированных частей и в каждый момент работает только нужная из них. Параллельно идут эксперименты с альтернативами трансформерам и другими способами кодирования данных, которые могут сократить стоимость вычислений.

Второе важное направление — расширение и переосмысление контекстного окна, то есть объёма информации, который модель способна удерживать в работе. Современные модели уже умеют обрабатывать очень большие массивы текста, но по мере роста контекста повышается риск, что модель начнёт терять нить задачи. Поэтому разработчики ищут более надёжные схемы работы с длинным контекстом, в том числе через разбиение задачи на части и распределённую обработку. По сути, речь идёт уже не просто о «более крупной модели», а о новом способе организации её работы.

«Модели мира»

Одна из главных слабостей нынешнего AI — ненадёжность при работе с реальным миром. С текстом, кодом и другими цифровыми задачами системы справляются всё лучше, но как только речь заходит о физической среде, всё становится заметно сложнее. Именно поэтому всё больше исследователей делают ставку на так называемые модели мира — системы, которые не просто обрабатывают входные данные, а формируют внутреннее представление об окружающей среде и возможных последствиях действий.

Идея не новая, но в последние месяцы она снова вышла на первый план: этим направлением активно занимаются крупные лаборатории и исследовательские стартапы. Смысл в том, что одной статистики по текстам недостаточно, чтобы система вела себя устойчиво в нестандартной ситуации. Языковая модель может правдоподобно описывать мир, но это ещё не значит, что она действительно умеет в нём ориентироваться.

На практике это особенно важно для робототехники и автономных систем. Если AI сможет строить более точную внутреннюю модель среды, предсказывать последствия своих действий и корректировать поведение по ходу работы, это может заметно расширить его применимость за пределами экрана. Пока реальные применения в основном скромные — от виртуальных 3D-сред до навигации роботов, — но именно здесь многие исследователи видят один из ключевых шагов после эпохи LLM.

Китайская ставка на открытые модели

Пока американские AI-компании в основном держат сильные модели за API и монетизируют доступ, китайские лаборатории делают ставку на открытые веса. Для разработчиков это означает более низкий порог входа: модель можно развернуть на своей инфраструктуре, дообучить под задачу и не зависеть от коммерческих ограничений внешнего провайдера.

Эта стратегия особенно заметно усилилась после выхода DeepSeek R1: модель показала, что китайские игроки способны приблизиться к уровню ведущих американских систем, причём с меньшими затратами. Дальше по этому пути пошли и другие крупные участники — Alibaba, Moonshot, MiniMax и Z.ai. В результате Китай начал набирать не только технический вес, но и доверие разработчиков, которым нужны дешёвые и настраиваемые инструменты для внедрения AI в реальные продукты.

При этом у подхода есть и обратная сторона. Открытые китайские модели несут на себе ограничения местной системы модерации контента, а вокруг части лабораторий звучат претензии, связанные с заимствованием возможностей у западных моделей. Но в прикладном смысле тренд уже сложился: открытые модели делают рынок AI менее централизованным, а сама экосистема всё заметнее уходит от сценария, где правила игры задаёт только Кремниевая долина.

Что сегодня действительно важно в AI: 10 направлений по версии MIT Technology Review - 2

Куда AI выходит из чата в реальные процессы

Оркестрация агентов

Следующий этап после LLM — не просто «умные чаты», а системы, которые умеют выполнять действия. Для этого и нужны агенты: они работают с инструментами, интерфейсами и рабочими процессами, а не только генерируют текст в ответ на запрос.

Главный сдвиг сейчас — переход от одиночных агентов к многоагентным связкам. Вместо одного бота, который решает одну задачу, появляется группа агентов с разными ролями: один пишет код, другой тестирует, третий исправляет ошибки, четвёртый координирует процесс. Такой подход уже применяется в разработке, а теперь начинает выходить и в более широкий офисный контур — от работы с почтой и обращениями до управления внутренними процессами.

Идея выглядит сильной: многоагентные системы могут стать для интеллектуального труда тем, чем конвейер когда-то стал для производства. Но вместе с этим растут и риски. Если генеративные модели по-прежнему склонны ошибаться и действовать непредсказуемо, то при выходе в реальные инфраструктуры — корпоративные, финансовые, медицинские — цена таких ошибок становится заметно выше.

AI как соавтор научных исследований

AI уже стал рабочим инструментом в науке: помогает искать публикации, писать код, готовить черновики статей и разбирать данные. Но сейчас у крупных лабораторий и исследовательских групп цель амбициознее — превратить такие системы из вспомогательного инструмента в полноценного участника научной работы, способного предлагать гипотезы, планировать исследования и частично вести их почти без постоянного участия человека.

На практике это всё чаще реализуется через многоагентные системы, где разные модели отвечают за отдельные этапы: генерацию идей, отбор гипотез, проектирование экспериментов и интерпретацию результатов. В связке с роботизированными лабораториями такой подход уже позволяет запускать большие серии экспериментов и ускорять прикладные исследования, особенно в биологии и химии.

Но вместе с этим возникает и другой риск: AI хорошо работает там, где уже есть большие массивы данных и накопленная литература, а значит, может незаметно смещать фокус науки в сторону «удобных» и уже разработанных направлений. Поэтому вопрос здесь не только в мощности моделей, но и в том, как встроить их в научный процесс так, чтобы не сузить поле исследований и не потерять разнообразие научного поиска.

AI как советник в военном контуре

Военные давно используют AI для анализа разведданных, видео и других потоков информации, где нужно быстро отделять полезный сигнал от шума. Новое здесь не сама автоматизация, а переход к системам, которые не только обрабатывают данные, но и выдают рекомендации командирам в диалоговом формате.

Такие решения строятся уже на базе LLM. Их применяют для приоритизации целей, интерпретации разведывательной информации и поддержки решений в условиях дефицита времени. Причём речь идёт не об экспериментальных прототипах: подобные инструменты всё плотнее встраиваются в реальные военные процессы.

Проблема в том, что генеративные модели по своей природе нестабильны: могут давать разные ответы на один и тот же запрос, ошибаться и звучать убедительно даже там, где выводы слабо обоснованы. В гражданских задачах это неприятно, в военных — уже критично. Дополнительные риски связаны с непрозрачностью таких систем, зависимостью армии от технологических компаний и перспективой обучения моделей на закрытых военных данных.

Что сегодня действительно важно в AI: 10 направлений по версии MIT Technology Review - 3

Какие новые конфликты и издержки это создаёт

Киберугрозы

С появлением доступных генеративных моделей у злоумышленников резко расширился набор инструментов. AI уже используется для фишинговых писем, дипфейков, адаптации вредоносного ПО под обход детекторов, поиска уязвимостей и анализа украденных данных, чтобы быстрее находить в них то, что действительно представляет ценность.

Главный эффект здесь не в том, что AI мгновенно сделал атаки «умнее», а в том, что он сделал их дешевле, быстрее и массовее. Порог входа для атакующих снижается: многие операции, которые раньше требовали времени и квалификации, теперь автоматизируются или заметно упрощаются. Поэтому даже сравнительно примитивные атаки начинают представлять большую проблему за счёт объёма.

Защитная сторона тоже использует AI, и в ряде случаев именно он помогает фильтровать огромный поток подозрительной активности. Но общий баланс пока тревожный: по мере роста доступности таких инструментов нагрузка на системы защиты будет только увеличиваться, а базовая кибергигиена — обновления, сегментация сети, соблюдение протоколов безопасности — остаётся критически важной.

Дипфейки как инструмент давления

Опасения по поводу дипфейков давно перестали быть теорией. По мере развития генеративных моделей и роста доступности таких инструментов подделывать фото, видео и аудио стало заметно проще, дешевле и быстрее. Причём речь уже не только о заведомо фальшивом контенте, а о материалах, которые всё труднее отличить от реальных.

На практике дипфейки всё чаще используются во вредоносных сценариях: от несанкционированных интимных изображений до мошеннических схем и политической пропаганды. Последствия здесь выходят далеко за рамки отдельных инцидентов: подрывается доверие к изображениям как таковым, к публичным институтам и к самой возможности отличать реальное от сгенерированного.

Технические и правовые меры защиты обсуждаются, но у каждой из них есть ограничения. Фильтры можно обойти, открытые модели — использовать без встроенных ограничений, а регулирование работает только там, где его действительно применяют. Поэтому проблема, судя по всему, будет только нарастать — особенно в политически чувствительных и социально уязвимых сценариях.

Нарастающее сопротивление AI

На фоне ускоренного внедрения AI растёт и обратная реакция. Причём протест идёт не из одного лагеря: против выступают самые разные группы — от работников и профсоюзов до родителей, художников, религиозных сообществ и политических активистов с противоположными взглядами. Поводы тоже разные: рост энергопотребления дата-центров, сокращения под предлогом автоматизации, влияние чат-ботов на подростков, военное применение AI и использование чужого контента для обучения моделей.

Это сопротивление уже выходит за рамки отдельных заявлений. Возникают уличные протесты, публичные декларации, судебные иски и локальные регуляторные меры. В ряде случаев давление начинает влиять и на политику: вводятся ограничения для отдельных классов AI-сервисов, а планы по ослаблению защиты авторских прав сталкиваются с жёстким отпором.

Особенно заметен конфликт вокруг инфраструктуры: дата-центры всё чаще воспринимаются не как абстрактная «технологическая база», а как объекты, которые занимают землю, нагружают энергосистему и создают издержки для местных сообществ. В этом смысле анти-AI повестка становится не только культурной или этической, но и вполне материальной. И похоже, что дальше этот конфликт будет только усиливаться.

Источник: technologyreview

В продолжение темы — несколько практических гайдов, которые уже получили хороший отклик на Хабре:

Что сегодня действительно важно в AI: 10 направлений по версии MIT Technology Review - 4

Если хочется глубже погрузиться в эти темы, загляните в календарь бесплатных демо-уроков — там практикующие эксперты регулярно рассказывают про AI, разработку и смежные направления на примере реальных задач и кейсов.

Автор: kmoseenk

Источник