Границы моего языка — это границы моего мира, или почему AGI недостижим с помощью LLM
Можете ли вы поверить в то, что учитель из Австро-Венгрии предсказал возможности современных LLM и их ограничения еще более 100 лет назад?Сегодня все говорят о пузыре ИИ, но еще недавно от LLM многие ждали прорыва, и даже возможной дороги к AGI. Но на чем основывались эти ожидания? И почему мы поверили в этот мираж? Эта история о том, как природу этого миража один человек увидел еще более века назад. И его имя — Людвиг Витгенштейн.
Полноценный GPT в 243 строках Python от Andrej Karpathy
Andrej Karpathy только что создал полноценный GPT в 243 строках PythonАннотация: В феврале 2026 года известный исследователь ИИ Андрей Карпати опубликовал проект microGPT — минималистичную реализацию трансформера, обучающуюся и выполняющую инференс всего в 243 строках чистого Python без внешних зависимостей. Этот «арт-проект» демонстрирует фундаментальные математические принципы работы больших языковых моделей, делая архитектуру GPT прозрачной и доступной для изучения. ]Краткое содержаниеАспектОписаниеАвтор проекта
Data Structure Protocol (DSP): как дать LLM-агентам «долговременную память» о большом репозитории
Есть паттерн, который видит кажд��й, кто работает с агентами: первые 5–15 минут уходят не на задачу, а на "ориентацию". Где точка входа? Откуда растут зависимости? Почему эта библиотека, а не другая? Кто считает это публичным API? В маленьком проекте раздражает. В большом — превращается в постоянный налог на токены и внимание.DSP (Data Structure Protocol) "выносит карту проекта наружу" — в простой, версионируемый, языковой граф, который живёт рядом с кодом и доступен агенту как постоянная память.k-kolomeitsev/data-structure-protocolЦель в архитектуре сформулирована так:
Распознавание изображений локальными LLM
Читая HABR, наткнулся на статью про мышление больших моделей и их способности распознавания изображений. И у меня возникла идея небольшого теста одной имеющейся у меня модели LLM, которая умеет распозновать фото, а именно llama4:16x17b НО запущенной полностью локально. Весит эта модель 67 гигабайт, если интересно на чем она была запущена отвечу в комментариях.На написание статьи меня подвинул один из комментариев - "а как интересно нейросеть распознает разные типы животных"
ИИ-трансформация 2026: от хайпа к инфраструктуре. 5 структурных сдвигов, которые меняют стек технологий
Еще недавно ИИ был набором экспериментальных фич. В 2026 году мы видим, как он превращается в «невидимую инфраструктуру». По прогнозам Goldman Sachs, расходы на ИИ превысили $500 млрд, но главная новость не в деньгах, а в архитектуре: ИИ консолидируется в суперприложения и агентные системы, которые берут на себя управление рабочими процессами.Разбираем пять трендов, которые определяют, как мы будем кодить, строить бизнес и управлять данными в ближайшие годы.1. Агентные системы как новая рабочая сила
Я ненавижу мозговые штурмы. Поэтому я обучил нейросеть делать их за меня
Введение: фейл с машинкой по генерации идейВозможно многие увидят схожую проблему при использовании нейронок. Я уже достаточно долго и часто использую llm для личных и рабочих задач, автоматизирую свои воркфлоу и в моих кейсах модели эффективно справлялись со своими задачами пока не столкнулся с одним кейсом.
За пределами LLM: детерминированный движок рассуждения на конечном алфавите
Часть 1. Детерминированный движок рассуждения на конечной таблице операции (в перспективе — замена LLM)Когда речь заходит о больших языковых моделях, все сразу отмечают их талант к сочинению и пересказу текстов. Но вот встроить такую модель в реальный продукт — задача куда более каверзная, чем кажется на первый взгляд. На практике вылезают три системных «подводных камня», из‑за которых работать с ними бывает откровенно неудобно.
Как я делал свою языковую модель: история эксперимента
Уже больше года назад у меня зародилась идея создать свою архитектуру языковой модели. Традиционные модели, "думающие" на уровне токенов мне решительно не нравились. Колоссальный вычислительный бюджет на то, чтобы просто предсказать один токен. Логичным мне казалось оторвать мышление модели от токенов, перенеся его в латентное пространство. Примерно полгода назад я начал первые практические эксперименты и сейчас получил первые практические результаты. Поскольку уровень подготовки читателей очень сильно различается, в статье не будет глубоких технических разборов, а скорее история эксперимента.
AiConf 2026: нам нужен именно ты! Что нового?
Привет, трудяга! На носу одно из самых волнующих мероприятий этой весны — AiConf 2026, которое традиционно проходит в Москве. Кто был на наших конференциях, тот знает, что это кладезь полезной информации, нетворкинга и вдохновения.В новом году пришло время перемен: мы проанализировали отзывы и предложения наших участников, докладчиков и партнёров, и пришли к выводу, что AiConf 2026 года будет другой. С этого момента AiConf становится конференцией развития.

