кодогенерация.

Ускорение DeepSeek-R1 с подвохом: Когда токены в секунду врут о реальной скорости

ВведениеПосле сборки домашнего сервера для работы с LLM DeepSeek-R1 подробно о нём можно прочитать в статье Локальный DeepSeek-R1-0528. Когда скорость улитки – не приговор, а точка старта возникла потребность сравнить разные квантизации для оптимизации скорости/качества работы. Запуская работу с разными моделями, я заметил что квантизация зачастую приводит к ускорению генерации токенов.

продолжить чтение

Как я начал бояться вайб-кодинга, или почему мы доверяем ИИ больше, чем коллегам

Ещё год назад я смеялся над мемами про Copilot, который "пишет весь код за тебя". Теперь - я уже не смеюсь. Потому что вижу, как всё чаще код влетает в main почти без участия человека. Его не пишут - его принимают. Почти как оракульское послание.Это не всегда плохо. Но иногда - страшно.Началось с удобстваЯ не анти-ИИ и не неолуддит - я сам пользуюсь им в работе. Более того - я первый, кто радовался, когда Copilot или Claude помогали дописать скучные if-else, док-блоки и избавляли от гуглинга array_unique третий раз за неделю. Это круто. Это ускоряет. Это экономит силы. Но со временем, что-то начало меняться.

продолжить чтение

Разработка Java-проекта с Jmix AI Assistant

Эта заметка инспирирована статей на Хабре Разработка Java-проекта с ChatGPT-4: от идеи до реализации . После ее прочтения автор начал экспериментировать в разработке ПО с различными AI ассистентами. Увидев статью блога Jmix AI Assistant — ваш помощник в освоении Jmix , решил реализовать с помощью Jmix AI Assistant приложение аналогичное приведенному в статье .Главное отличие от указанной статьи в том, что вся разработка будет вестись с помощью одного инструмента Jmix AI Assistant без использования сторонних генераторов кода.

продолжить чтение

Rambler's Top100