Фундаментальный разбор: эволюция архитектур нейросетей от перцептрона до трансформера
Доброго времени суток, «Хабр»!Устал я делать разного рода сравнения и составлять топы среди недавно вышедших моделей. Восемь месяцев назад вышла моя статья, рассказывающая о пути, который нейросети проделали от цепей Маркова до современных языковых моделей. Размышляя над старыми материалами, я подумал: а почему бы снова не углубиться в историю и не рассмотреть развитие архитектур моделей?Присаживайтесь поудобнее, а я начинаю свой рассказ, в котором пройду путь от перцептрона до современного трансформера.
Глава Google DeepMind: У человечества осталось 10 лет на адаптацию к новому миру
Демис Хассабис, глава Google DeepMind и нобелевский лауреат по химии 2024 года, дал развернутый прогноз
Китайцы снова радуют. Вышла GLM-4.7 – заметный апгрейд именно для агентного кодинга
Z.ai представили GLM-4.7 — новую версию своей модели для кодинга, и апдейт получился не косметическим. Основной фокус — агентные сценарии, терминал и устойчивость на длинных задачах.По бенчмаркам рост выглядит вполне предметно: SWE-bench Verified — 73.8% (+5.8%), SWE-bench Multilingual — 66.7% (+12.9%), Terminal Bench 2.0 — 41% (+16.5%).
От Шеннона до современного ИИ: применение теории информации в машинном обучении
Главная задача этой статьи — показать связь между теорией информации Шеннона и инструментами, которые можно встретить в современных системах машинного обучения. Здесь мы поговорим об энтропии (entropy) и о приросте информации (information gain), потом перейдём к кросс-энтропии (перекрёстная энтропия, cross-entropy), к KL-дивергенции (дивергенция или расхождение Кульбака–Лейблера, относительная энтропия, KL-divergence), рассмотрим методы, используемые в современных системах генеративного ИИ.
Обзор состояния AI за 2025 год и прогнозы на будущее
Год почти прошел и пришло время сделать обзор State of AI на этот год и прогнозы на следующий. За основу были взяты отчеты ведущих организаций мира: MIT, PwC, OpenAi, Open Router и тп.Парадокс “Высокие темпы внедрения - слабая трансформация” 😢
Вся стройка держалась на инженерах, а потом пришла нейросеть
В ТЕХНОНИКОЛЬ мы активно используем нейросети: на производстве машинное зрение ищет дефекты на конвейерах, алгоритмы помогают с ценообразованием, для сотрудников разрабатываем внутренние ИИ-инструменты. Но сегодня расскажу, как мы внедрили LLM с RAG в контакт-центр, освободили головы инженеров от рутины и кратно увеличили пропускную способность поддержки.Меня зовут Андрей Цымбалюк, я руководитель этого проекта и занимаюсь digital-маркетингом в технической дирекции. Под капотом — история о том, как мы прошли путь от экспериментов с ChatGPT до системы, которая консультирует клиентов по 10 000+ строительных материалов.

