token.

Мой первый open source проект с Cursor и Opus 4.6 — GenAI Prices Parser

Запустил свой первый open source проект. Задача простая, но полезная: автоматический сбор цен на LLM-модели всех основных провайдеров и загрузка в PostgreSQL для BI-аналитики.Что делает:— Каждый день скачивает актуальные цены из базы pydantic/genai-prices (29 провайдеров, 1100+ связок провайдеров и моделей)— Раскладывает в плоскую таблицу: провайдер, модель, контекстное окно, цена input/output за 1M токенов, кэширование, аудио— Загружает в PostgreSQL: текущий снимок + историческая витрина для отслеживания динамики цен

продолжить чтение

Ошибка в $5 000 на TON из-за кода, написанного нейронкой

Привет, Хабр! Наконец таки статья о том как я облажался. Точнее — как облажалась команда, но ответственность все равно моя.TL;DR: Relayer для TON-проекта писался с помощью LLM. Без документации. Без тестов. Без понимания модели угроз. В результате — потеря ~$5 000 из пула ликвидности на STON.fi. Блокчейн не взломан, DEX работает как надо. Проблема была в нашей архитектуре.Это разбор конкретной ошибки, которая стоила реальных денег. И пояснение, почему скептики с Хабра всё равно не правы — но по другой причине, чем они думают.1. Что вообще за проект

продолжить чтение

NER не про токены: почему span важнее BIO

Дисклеймер.Все примеры текстов и сущностей в статье являются синтетическими и не содержат реальных персональных данных. Любые совпадения с реальностью случайны.ИнтроВ последние годы системы детекции и очистки персональных данных стали неотъемлемой частью NLP-пайплайнов, особенно в сценариях, где тексты передаются во внешние LLM-провайдеры и используются в LLM-агентах.На практике такие системы решают задачу детекции и маскирования персональных данных, среди них можно выделить: Presidio, LLM Guard,

продолжить чтение

LCPO меняет подход к обучению AI, снижая затраты на вычисления

Процесс рассуждения через цепочку (Chain-of-Thought, CoT) — это метод, при котором модели разбивают задачи на управляемые «мысли», прежде чем искать ответ. Этот подход стал важной частью современных больших языковых моделей (LLMs). Однако такие модели могут создавать высокие затраты на вычисления из-за большого количества генерируемых CoT-токенов. В новой работе исследователи из Университета Карнеги-Меллона предложили технику обучения языковых моделей, которая дает разработчикам больше контроля над длиной CoT.

продолжить чтение

Считаем количество токенов для LLM в исходниках ядра Linux и не только…

Эта статья про новое расширение ахритектуры трансформеров – Titan от Google –, позволяющее расширить рамки LLM до 2 млн токенов, побудила поинтересоваться, сколько токенов, пригодных для LLM, содержат исходники колоссального софта. Какой открытый софт будем „препарировать“:MySQLVS Code

продолжить чтение

Rambler's Top100