Вайб-ЛЛМинг. AI агенты теперь сами обучают LLM с помощью Hugging Face Skills
Hugging Face релизнули Skills — Agent Context Protocol (ACP), через который упаковываются определения разных задач для ИИ агентов. По сути — это папки, в которых собраны инструкции, скрипты и ресурсы для использования ИИ-агентом под конкретный кейс. В каждой такой папке есть файл “SKILL.md” с YAML-фронтматтером (имя и описание) и далее текст с инструкциями, которым кодовый агент следует, пока этот скилл активен. Сама концепция повторяет Claude Skills (о чем Hugging Face открыто заявляет).LLM обучает LLM
Контроль качества переводов на основе ИИ
А вы задумываетесь иногда, что вот хочется что-то сделать такое, чтобы как-то выбиться из общей массы разработчиков? Сейчас придумаю идею, реализую, стану зарабатывать много денег? Все же так думают? Или только я один.
Последний романтик
Привет народ!Вот и настала моя очередь исповедоваться перед тобой.У меня есть, не самая оригинальная, гипотеза о том, что большинство из множества статей жанра "Исповедь Разработчика" - это попытка авторов добавить веса своему персональному бренду, в специфических условиях, сложившихся на рынке труда, когда люди с опытом и, казалось бы, правильным майндсетом, вынуждены стоять в одной очереди с теми, кто вкатился в АйТи только ради денег и удаленки.
Укрощаем зоопарк API: универсальный Python-клиент для GigaChat, YandexGPT и локальных моделей (v0.5.0)
Привет, Хабр! 👋Если вы пробовали внедрять российские LLM в свои проекты, то наверняка сталкивались с "зоопарком" API. У GigaChat — OAuth2 и свои эндпоинты, у YandexGPT — IAM-токены и gRPC/REST, у локальных моделей через Ollama — третий формат.В какой-то момент мне надоело писать бесконечные if provider == 'gigachat': ... elif provider == 'yandex': ..., и я решил создать универсальный слой абстракции.Так появился Multi-LLM Orchestrator — open-source библиотека, которая позволяет работать с разными LLM через единый интерфейс, поддерживает умный роутинг и автоматический fallback (переключение на другую модель при ошибке).
Французский стартап представил линейку Mistral 3: 675 миллиардов параметров в open source
Компания Mistral AI выпустила новое поколение своих моделей — Mistral 3. В релиз вошли три небольших плотных модели (3B, 8B и 14B), а также флагманская Mistral Large 3 — разреженная Mixture-of-Experts-архитектура с 41B активных и 675B общих параметров. Все модели распространяются под Apache 2.0, что делает Mistral 3 одним из крупнейших полностью открытых релизов в сегменте frontier-класса.
«Господин Говорунъ: как я обучил маленькую модель разговаривать на дореформенном русском»
Немного контекстаПоследние месяцы мы в команде развиваем проект Manuscript OCR - открытую библиотеку, которая учит нейросети читать рукописные документы XIX века. Это сложный материал: дореформенная орфография, нестабильный почерк, архивные артефакты.Кому интересны технические детали - отдельная статья про Manuscript OCR уже есть на Хабре.Работая над этим проектом, я всё больше погружался в дореформенный язык: тестировал модели, прогонял страницы, сравнивал орфографические варианты. И в какой-то момент возник вполне естественный вопрос:
Как прошла международная конференция ISKE 2025 в области AI и ML
Всем привет! С вами снова на связи Кирилл, и я только вернулся из своей недельной поездки в Китай на конференцию International Conference on Intelligent Systems and Knowledge Engineering (ISKE 2025
Технология разработки веб приложений BayLang
Привет Хабр!BayLang - это OpenSource технология разработки программного обеспечения.Это экосистема, которая состоит из:языка программирования,фреймворка,базового набора виджетов,конструктора,искусственного интеллекта.Все эти блоки уже разработаны. Сейчас происходит работа по рефакторингу и сборку всех частей в единое целое.Основная идея этой технологии, сделать разработку ПО качественной и высокоскоростной, за счет применения конструктора и ИИ.Я очень много проводил экспериментов с этой технологией, и вот к каким выводам я пришел.

