llm. - страница 50

llm.

Мой опыт монетизации проекта: шахматы по переписке с платёжным сервисом

Я уже больше года работаю над проектом Language Dove, и наконец пришло время его монетизировать.В этой статье - мой опыт с двумя платёжными сервисами: американским MoR (merchant of record) Paddle и интернет-эквайрингом от IDBank в Армении, а также технические детали интеграции с тем из них, который я в итоге выбрал.О проектеLanguage Dove - это платформа для изучения языков: у меня есть курсы с нуля, интерактивные книги, упражнения на говорение. Но главная фича сайта - это караоке-субтитры к фильмам с двумя видами перевода: адаптивным художественным и

продолжить чтение

Picsart запустила маркетплейс AI-ассистентов для создателей контента

продолжить чтение

Хроники Agent Driven Development трансформации .1: улучшаем agent feedback loop

Это первая статья из цикла «Хроники Agent Driven Development трансформации». В цикле я рассказываю, как постепенно перевожу реальный продакшен-проект на рельсы agent-driven development — когда LLM-агенты становятся полноценными участниками разработки, а не просто подсказчиками в автокомплите.В нулевой статье я рассказал, как ускорил прогон ~800 тестов в 6 раз — с 10 минут до 101 секунды. Это было необходимой подготовкой: если agent feedback loop занимает 10 минут на каждый цикл «сгенерировал тест → скомпилировал → запустил → получил результат», то никакой agent-driven development не взлетит.Что вы узнаете из этой статьи

продолжить чтение

Why LeCun’s World Model Won’t Save AI

After the unexpected divorce between LeCun and Meta, there is a lot of talk that the dead-end in LLM progress will be overcome through the physics of the world. That is, having a neural network work with physical data from the surrounding environment will allow the model to acquire meaning and an understanding of its actions. LeCun has a foundational paper that nobody is going to read. So, I'll summarize it as best I can. Essentially, the idea is that the current trajectory of LLM development is doomed. As long as they are predicting the next token, real understanding — the emergence of real meaning — is impossible. LeCun proposes training neural networks on physical world data, assuming that building a model of it will allow the system to discard details and focus on meaning.

продолжить чтение

Себастьян Рашка запустил визуальный справочник архитектур LLM — от DeepSeek до GLM-5

Себастьян Рашка, автор бестселлера Build a Large Language Model (From Scratch) и рассылки Ahead of AI на 168 000 подписчиков, запустил

продолжить чтение

Почему World Model ЛеКуна не спасёт ИИ

После неожиданного развода ЛеКуна и Мета много говорят о том, что тупик прогресса LLM будет преодолён через физику мира. То есть, работа нейросети с физическими данными окружающего мира позволит модели обрести смысл и понимание своих действий. У ЛеКуна есть базовая статья

продолжить чтение

Как я сделал голосовых NPC в Unity с помощью LLM: Пошаговое руководство

Я всегда хотел сделать умных NPC.Не тех, которые стоят возле таверны и повторяют одну и ту же фразу:«Добро пожаловать в деревню.»А таких, как персонажи в аниме-исекаях или фэнтези-историях — тех, кто:помнит, что ты говорил им вчераделает выводы из наблюденийпланирует свои действияможет поддержать живой разговорВ обычных RPG NPC работают по простой схеме: дерево диалогов, заранее написанные ответы, триггеры квестов. Это работает — но всегда чувствуется, что персонаж живёт по сценарию.Когда появились большие языковые модели (LLM), появилась мысль:

продолжить чтение

Дроны над Дубаем и новостной агрегатор: Flask, MCP-сервер, AI-агент и Telegram-бот

28 февраля 2026 года я стоял у окна на 41-м этаже в JBR в Дубае и смотрел, как системы ПВО ОАЭ перехватывают иранские беспилотники прямо над моей головой. Полез в новости — в Google и Яндексе статья двухчасовой давности, Telegram‑каналы противоречат друг другу. Когда это происходит где‑то далеко, не придаёшь этому значения. Когда ты в центре событий, то хочешь знать оперативную информацию, желательно с push‑уведомлениями.

продолжить чтение

re!think it: Как я уместил корпоративный бэкенд в один промпт (История сборки)

ВведениеВсё началось с утреннего обсуждения того, как языковые модели вообще воспринимают вводный запрос. Насколько на самом деле важно качество описания промпта? Есть ли разница между большим объемом «популярных» слов (водой) и лаконичным запросом, состоящим из малого количества, но редких и "тяжелых" по смыслу терминов?

продолжить чтение

Халява уходит из разработки Агентов

Сегодня каждый норовит написать универсального агента и объявить это революцией. Рынок переполнен поделками вроде OpenClaw и его клонов: IronClaw, ZeroClaw, MicroClaw, NullClaw, GitClaw, AstrBot, GripAi, Moltis...Все идут одной и той же дорогой: используют готовые MCP и дают агентам shell-оболочку. Да, это легко собрать. Да, весело. Можно хайпануть в соцсетях. Но это тупиковый путь.В статье разберем все грехи status quo и предложим другой подход, более требовательный к компетенциям в области разработки ПО.Если вы не знаете, что такое агент, могу порекомендовать первый раздел Пишем агента на Kotlin: KOSMOS.

продолжить чтение