Машинное обучение. - страница 40

Выбор LLM и фреймворка для ИИ-агентов

продолжить чтение

Фундаментальный разбор: эволюция архитектур нейросетей от перцептрона до трансформера

Доброго времени суток, «Хабр»!Устал я делать разного рода сравнения и составлять топы среди недавно вышедших моделей. Восемь месяцев назад вышла моя статья, рассказывающая о пути, который нейросети проделали от цепей Маркова до современных языковых моделей. Размышляя над старыми материалами, я подумал: а почему бы снова не углубиться в историю и не рассмотреть развитие архитектур моделей?Присаживайтесь поудобнее, а я начинаю свой рассказ, в котором пройду путь от перцептрона до современного трансформера.

продолжить чтение

Глава Google DeepMind: У человечества осталось 10 лет на адаптацию к новому миру

Демис Хассабис, глава Google DeepMind и нобелевский лауреат по химии 2024 года, дал развернутый прогноз

продолжить чтение

RAG — это главное. Почему специализированные LLM реже галлюцинируют

Когда закрылся Skype

продолжить чтение

Репортёр New York Times подал в суд на Google, xAI и OpenAI из-за обучения ИИ

Журналист-расследователь New York Times Джон Каррейру подал в суд на Google, OpenAI, Anthropic, xAI, Perplexity и Meta*. Он обвинил компании в использовании книг без разрешения правообладателей для обучения своих моделей искусственного интеллекта.

продолжить чтение

Допустим, ИИ пришел вас автоматизировать. Что будет дальше?

Привет, я Андрей,

продолжить чтение

Китайцы снова радуют. Вышла GLM-4.7 – заметный апгрейд именно для агентного кодинга

Z.ai представили GLM-4.7 — новую версию своей модели для кодинга, и апдейт получился не косметическим. Основной фокус — агентные сценарии, терминал и устойчивость на длинных задачах.По бенчмаркам рост выглядит вполне предметно: SWE-bench Verified — 73.8% (+5.8%), SWE-bench Multilingual — 66.7% (+12.9%), Terminal Bench 2.0 — 41% (+16.5%).

продолжить чтение

От Шеннона до современного ИИ: применение теории информации в машинном обучении

Главная задача этой статьи — показать связь между теорией информации Шеннона и инструментами, которые можно встретить в современных системах машинного обучения. Здесь мы поговорим об энтропии (entropy) и о приросте информации (information gain), потом перейдём к кросс-энтропии (перекрёстная энтропия, cross-entropy), к KL-дивергенции (дивергенция или расхождение Кульбака–Лейблера, относительная энтропия, KL-divergence), рассмотрим методы, используемые в современных системах генеративного ИИ.

продолжить чтение

Обзор состояния AI за 2025 год и прогнозы на будущее

Год почти прошел и пришло время сделать обзор State of AI на этот год и прогнозы на следующий. За основу были взяты отчеты ведущих организаций мира: MIT, PwC, OpenAi, Open Router и тп.Парадокс “Высокие темпы внедрения - слабая трансформация” 😢

продолжить чтение

Вся стройка держалась на инженерах, а потом пришла нейросеть

В ТЕХНОНИКОЛЬ мы активно используем нейросети: на производстве машинное зрение ищет дефекты на конвейерах, алгоритмы помогают с ценообразованием, для сотрудников разрабатываем внутренние ИИ-инструменты. Но сегодня расскажу, как мы внедрили LLM с RAG в контакт-центр, освободили головы инженеров от рутины и кратно увеличили пропускную способность поддержки.Меня зовут Андрей Цымбалюк, я руководитель этого проекта и занимаюсь digital-маркетингом в технической дирекции. Под капотом — история о том, как мы прошли путь от экспериментов с ChatGPT до системы, которая консультирует клиентов по 10 000+ строительных материалов.

продолжить чтение

Rambler's Top100