llm.
JetBrains представила Air: новую агентную IDE
Компания выпустила Air — ADE (Agentic Development Environment), ориентированную на гибридную работу «разработчик + ИИ-агенты». Это не просто чат с моделью внутри IDE, а отдельная среда, где можно ставить задачи агентам, запускать их параллельно, контролировать изменения и коммитить результаты.Air пока доступен в превью и работает только с одним агентом — Claude Agent, причём для использования требуется активная подписка Anthropic. Версии для Windows и Linux обещают в 2026 году — сейчас приложение доступно только на macOS.
«Когда агенты перестают говорить»: как LatentMAS предлагает новый язык общения ИИ-агентов
Мультиагентные системы на базе LLM почти всегда строятся вокруг текстовой коммуникации. Агенты объясняют друг другу планы, уточняют шаги, формируют выводы — всё это через генерацию токенов. Такой подход кажется естественным, но он порождает фундаментальные проблемы: текст генерируется медленно, ошибки формулировок на ранних этапах распространяются вниз по цепочке, а количество токенов растёт лавинообразно.Исследователи из Принстона, Стенфорда и Иллинойса предлагают другой путь:
Немного цифр про Koda — делимся тем, что происходит сейчас
За последние месяцы продукт заметно подрос, и мы собрали несколько метрик, которые показывают, как им пользуются.1. Больше 3 000 человек активно пользуются Koda каждый месяц.
Logos AI Assistant — полноценный ИИ-агент для вашего десктопа
Logos AI Assistant: Дайте "глаза и руки" нейросети на вашем рабочем столеВспомните, сколько раз вам приходилось заниматься ручной, механической работой: переносить данные из одной программы в другую, кликая по одним и тем же кнопкам, или выполнять последовательность команд в терминале для рутинной задачи. Это отнимает время и силы, которые можно было бы потратить на что-то более важное.Мы создали Logos AI Assistant не как замену человеку, а как инструмент-исполнитель. Это мост между мощными языковыми моделями (LLM) и вашим компьютером. Проще
Контроль качества переводов на основе ИИ
А вы задумываетесь иногда, что вот хочется что-то сделать такое, чтобы как-то выбиться из общей массы разработчиков? Сейчас придумаю идею, реализую, стану зарабатывать много денег? Все же так думают? Или только я один.
Исследователи Яндекса представили RATE — новый метод для оценки и улучшения машинного перевода
Наши исследователи разработали новый метод оценки качества машинного перевода. Эту разработку можно использовать для совершенствования моделей, которые уже переводят тексты довольно точно, но делают это не всегда естественно. Например, в неформальном диалоге модель может перевести «sorry, my bad» как «приношу извинения, это моя вина» вместо «извини, ошиблась». Пользователь заметит, что нейросеть выбрала излишне официальный тон, но существующие системы оценки перевода такие ошибки игнорируют. Новый метод помогает обращать внимание нейросетей на такие недочёты.Новая система оценки Яндекса называется
Нейронки (не) плохо понимают юмор
Суть мини исследования в названии. С момента как нейронки стали мультимодальными прошло уже прилично времени. Но, по моему субъективному мнению, нейронки как раньше, так и сейчас плохо справляются как с пониманием того, что именно изображено на картинках. Примечание: в итоге автор переобулся. То же самое с юмором: понять, что что-то смешное – значит проявить по-настоящему интеллектуальную деятельность, включающую в себя и понимание контекста, культуры, социального взаимодействия и даже того, что находится на границе приличия, но все еще относительно приемлемо (тот самый черный юмор).
LLM-клиент с MCP – дорогой и неэффективный подход в разработке
В наше время тяжело представить разработку цифровых продуктов, в которые хоть в какой-то степени не включили так называемый ИИ на больших языковых моделях (LLM). И я вовсе не против, но у меня вызывают вопросы подходы разработчиков к способам внедрения интеллектуальных инструментов в свои продукты.Думаю, абсолютное большинство оптимальным способом внедрения интеллекта в продукт выбрали использование проприетарных моделей через API, с добавлением кастомного функционала через вызовы MCP серверов. Кажется, это уже даже стало стандартом, и в этом я вижу проблему.

