MCP (КОМПАС-3D + LLM): превращаем САПР в среду для AI-агентов с помощью Python и COM API
Есть рутина, которую вы мечтаете автоматизировать?
Fine-tuning Qwen-8B под проприетарный синтаксис (CADINP) на одной RTX 3090: опыт инженера-конструктора
Проблема: Галлюцинации в инженерных расчетахЯ занимаюсь расчетами строительных конструкций в комплексе SOFiSTiK. Основной инструмент взаимодействия с ним — внутренний язык CADINP. Это мощный, но старый процедурный язык с жестким синтаксисом: строгая последовательность модулей (AQUA -> SOFIMSHC -> ASE), специфичные команды фиксации узлов и неявные зависимости.SOTA-модели (ChatGPT-4o, Claude 3.5 Sonnet) справляются с CADINP посредственно. Основные проблемы при генерации кода general-purpose моделями:Синтаксический шум: Выдумывание несуществующих аргументов функций.Потеря контекста:
Tooltrace — инструмент для генерации ложементов по фото
Tooltrace — нейросетевой инструмент, который генерирует ложементы для предметов по фотографии. На выходе пользователь получает CAD-файлы, чтобы ложемент можно было распечатать на 3D-принтере, вырезать лазером или изготовить из вспененного материала.
Бытовая автоматика. 13 лет спустя
С момента выхода первой статьи «Бытовая автоматика. Начало» прошло уже почти 13 лет, и, оглядываясь назад, мне кажется - есть о чём рассказать. Проект, который родился как DIY-«включалка», постепенно вырос в нечто большее.
Туториал к мануалу: публикация исходного DIY-нейрокода под ESP32 с деталями для 3D-печати и сборки своего девайса (18+)
По результатам голосования публикуются исходники устройства, а именно:Корпус:
Как я отучил нейросеть писать «Я коммуникабельный» и заставил её проходить HR-фильтры
Сейчас каждый второй джун пытается генерировать сопроводительные письма через ChatGPT.И каждый первый рекрутер научился их детектить за секунду.Стандартный ответ LLM выглядит так:«Уважаемый менеджер по найму! Я с большим энтузиазмом пишу вам, чтобы выразить свой интерес к позиции... Я обладаю уникальным сплавом навыков...»Это мусор. Это «AI-slop», как пишут в комментариях. Такие письма летят в корзину, потому что они пустые.Когда я писал своего агента для поиска работы , передо мной стояла инженерная задача:
Как заработать на LLM, перестав писать «правильные промпты»
В этой статье я бросаю вызов общепринятому представлению о больших языковых моделях как о «тупых исполнителях», которые ничего не понимают, галлюционируют, но позволяют получить результат быстрее (нередко за счет качества). Подобные мифы активно распространяются в сети, а также на курсах, на которых обучают «правильно» писать промпты. Я на Хабре уже написал несколько статей, разоблачающих отсутствие мышления у LLM, но здесь я опишу способность больших языковых моделей решать задачи, людям недоступные
Энтузиаст представил «разговорный ИИ» весом 40 КБ
Энтузиаст выложил на GitHub проект Z80-μLM — языковой модели, которая весит всего 40 КБ. Её можно запускать на 8-битном процессоре Z80.

