llama.

Разработка LLM с нуля. Новые модели

Крупное обновление в моем курсе Разработка LLM с нуля.Напомню, в курсе мы с нуля разрабатываем модель GPT-1 и все необходимые для ее работы компоненты: токенизатор, эмбединги, механизм внимания и т.д. Вся разработка ведется на Python и низкоуровневых компонентах PyTorch.

продолжить чтение

Ультимативный гид: Топ-20 нейросетей для текстов 2025: цены, API, локальные модели, русский + массовая генерация

Как выбрать ИИ для статей в 2025: Топ-модели, цены и интеграция для русскоязычных.

продолжить чтение

Как мы внедряли аспектно-ориентированный анализ тональности: опыт Naumen

продолжить чтение

Деньги не главное. В xAI из Meta✶ перешли как минимум 14 специалистов по ИИ

Журналисты Business Insider проанализировали

продолжить чтение

Как ContentCapture и LLM автоматизируют обработку судебных приказов, определений и постановлений ФССП

Ранее мы уже делились опытом использования LLM для обработки юридических документов и доверенностей. Сегодня расскажем о другом подходе, который применил наш технологический партнер ООО «ЕСМ-Консалтинг». При реализации нескольких показательных кейсов для крупных российских энергосбытовых компаний мы автоматизировали в них обработку судебных документов с помощью платформы ContentCapture и больших языковых моделей (LLM).

продолжить чтение

Новости кибербезопасности за неделю с 11 по 17 августа 2025

Всё самое интересное из мира кибербезопасности /** с моими комментариями.1) Сэм Альтман (OpenAI) в недавнем интервью

продолжить чтение

Эволюция архитектур больших языковых моделей: от GPT-2 к современным решениям

продолжить чтение

Попытка поставить идеи и гипотезы на поток – швейцарский нож для стартапов

Привет, меня зовут Кирилл! Мы с друзьями давно увлекаемся идеями и экспериментами «в стол». Знакомо, когда возникает куча интересных мыслей, но потом они теряются, потому что сложно понять — кому это на самом деле нужно?

продолжить чтение

Георгий Герганов, автор llama.cpp и звукового кейлогера

Многие пользуются YouTube, Netflix, но не подозревают о ключевых опенсорсных программах типа ffmpeg, которые работают на бэкенде этих сервисов. Похожая ситуация с нейронками, где многие знают программу Ollama

продолжить чтение

Llama 3.1 и «Гарри Поттер»: сколько текста действительно запоминает ИИ?

Может ли искусственный интеллект запомнить целую книгу? А если да, что это значит для авторов, издателей и самих разработчиков ИИ? Недавнее исследование от ученых из Стэнфорда, Корнелла и Университета Западной Виргинии показало, что языковая модель Llama 3.1 может дословно воспроизвести до 42% текста «Гарри Поттера и Философского камня». Это заставляет усомниться в механизмах ограничения памяти ИИ и поднимает вопросы о защите авторских прав. Дальше — как раз об этом.

продолжить чтение

Rambler's Top100