llm.
Почему вы не знаете, как работают ваши продажи: 3 неудобных вопроса
Я, Ирина Чекулаева, обожаю BI и с удовольствием разоблачаю мифы и ищу ошибки в системах бизнес‑аналитики. Здесь хочу порассуждать на тему CRM аналитики по результатам реального проекта. Чем дальше, тем очевиднее становится один парадокс, что CRM фиксирует звонки, письма, сделки, статусы, но она не отвечает на главный вопрос: почему продажи происходят или не происходят.Сегодня у компаний данных больше, чем когда‑либо. Проблема уже не в их отсутствии, а в том, что они не собираются в управляемую картину. Метрики существуют, отчёты строятся, дашборды обновляются, при этом контекст бизнес‑ситуации теряется.
3 вопроса к продажам, на которые у CRM обычно нет ответа
Я, Ирина Чекулаева, обожаю BI и с удовольствием разоблачаю мифы и ищу ошибки в системах бизнес‑аналитики. Здесь хочу порассуждать на тему CRM аналитики по результатам реального проекта. Чем дальше, тем очевиднее становится один парадокс, что CRM фиксирует звонки, письма, сделки, статусы, но она не отвечает на главный вопрос: почему продажи происходят или не происходят.Сегодня у компаний данных больше, чем когда‑либо. Проблема уже не в их отсутствии, а в том, что они не собираются в управляемую картину. Метрики существуют, отчёты строятся, дашборды обновляются, при этом контекст бизнес‑ситуации теряется.
Как вернуть управляемую модель бизнеса, когда уходит руководитель отдела продаж
Я, Ирина Чекулаева, обожаю BI и с удовольствием разоблачаю мифы и ищу ошибки в системах бизнес-аналитики. Здесь хочу порассуждать на тему CRM аналитики по результатам реального проекта. Чем дальше, тем очевиднее становится один парадокс, что CRM фиксирует звонки, письма, сделки, статусы, но она не отвечает на главный вопрос: почему продажи происходят или не происходят.Сегодня у компаний данных больше, чем когда-либо. Проблема уже не в их отсутствии, а в том, что они не собираются в управляемую картину. Метрики существуют, отчёты строятся, дашборды обновляются, при этом контекст бизнес-ситуации теряется.
AI Review не делает код лучше. И вот почему
ВступлениеЭта статья — не про настройку AI Review и не про список его возможностей. И точно не про «AI всё решит». Про это я уже писал раньше.Мне хотелось зафиксировать другое: что происходит, когда инструмент выходит за пределы “попробовать на выходных” и начинает жить в реальных репозиториях. Там, где есть дедлайны, большие MR, разные команды и очень разные ожидания.За это время накопился интересный слой обратной связи. Люди запускали AI Review
Метрика EICS — ищем у трансформера причинное место
Неопределённость как потеря причинной согласованности внутри цепи
Слова, которых нет
Введение к циклу из четырёх статей о совместном мышлении человека и LLMНесколько недель назад моя коллега переводила интерфейс одной программы на иностранный язык. Задача была обычная: LLM в помощь, проверить вручную, отдать в локализацию. В одном месте у LLM не нашлось подходящего слова в целевом языке, и вместо того чтобы выбрать ближайший вариант или оставить кальку, она придумала новое слово. Оно состояло из существующих корней языка, было фонетически естественным, и точнее передавало смысл оригинала, чем любое из реальных слов этого языка.
Снятся ли искусственному интеллекту цифровые овцы?
Когда-то в далеком 1968 году Филип К. Дик задавался вопросом: «Мечтают ли андроиды об электрических овцах?» Способны ли машины переживать, желать и видеть сны? Хоть сегодняшние «андроиды» и несколько иные, чем в произведении, вопрос до сих остается актуальным. Только слегка сместился фокус: не «мечтают ли», а «снятся ли им цифровые овцы»? Существует ли у нейросетей аналог фазы медленного сна, перерабатывают ли они данные «во сне» и, главное, способны ли «видеть сны»?
Очередная методичка разработки с LLM: работает только если ты разработчик
Привет, Хабр. Тут уже есть достаточно статей с методиками разработки при помощи LLM, все они имеют сильные и уникальные стороны, но ни одна не покрывает тот стек, который я определил для себя. Вот, делюсь. Я фрилансер. Не работаю над Enterprise проектами, не знаю как LLM себя ведут в больших разработках, командах. Все мой опыт - это проекты не более 4 месяцев по длительности, не превышали 60к строк кода.
Structured Outputs без иллюзий: как OpenAI, Gemini и xAI соблюдают JSON»-схемы
Structured Outputs, или structured decoding, это способ заставить LLM возвращать ответ в заранее заданном формате: валидный JSON, соответствующий JSON Schema. На уровне генерации это обычно означает constrained decoding: на каждом шаге модели запрещаются токены, которые привели бы к нарушению схемы. Хорошее техническое объяснение есть в статье vLLM: .Для продакшн-систем это важно, потому что ответ модели часто становится входом для следующего шага: API-вызова, записи в базу, бизнес-правила или другого LLM-запроса.
Почему текст от LLM узнаётся за пять секунд: разбираю стилистические маркеры через архитектуру моделей
Технический взгляд на то, почему GPT, Claude и Gemini генерируют похожий «средний» текст, и как с этим работать в продакшенеКогда мы интегрируем LLM в продакшн — будь то генерация описаний товаров, ответов техподдержки или внутренней документации — рано или поздно сталкиваемся с одной и той же проблемой. Текст модели читаем. Грамотен. И при этом видно, что его написала модель. Заказчик жалуется, пользователи отписываются от рассылки, в комментариях пишут «опять ваш чат-бот». Хочется сделать так, чтобы было незаметно — но какие именно патчи накладывать на промпт или пайплайн, не очевидно.

