llm. - страница 13

llm.

Один разработчик, ноль строк кода — как я построил AI-систему, не умея программировать

20 000 строк кода. 9 Python-модулей. 8 JavaScript-файлов. 11 HTML-оверлеев для стримов. 16 таблиц в базе данных. 678 коллекций в базе знаний с почти 11 тысячами embeddings. Десктоп-приложение с установщиком, которое можно скачать с сайта. Telegram-бот с памятью на 30 дней. Twitch-бот с викторинами, модерацией и системой заказа музыки через YouTube.Я не написал ни одной строчки. Ни одной.Кто я такойМеня зовут Михаил, мне 28, я из Казахстана. По специальности — электромонтажник. Английский не знаю вообще никак. Книжку по Clojure пришлось переводить через AI, потому что русского издания не существует.

продолжить чтение

Токенная разработка: почему я плачу $200 в месяц, а не $800 за устаревшее железо

Хуанг на GTC 2026 предложил платить инженерам токен-бюджеты вместо части зарплаты. Forbes написал: “output isn’t software, it’s tokens”. Anthropic посчитала: Claude Code обходится в $13 на разработчика в день, $150-250 в месяц.Я 4 месяца не обсуждаю, а считаю. И первое что посчитал: б/у RTX 3090 стоит $800-1000. За эти деньги я оплачиваю API и веду проекты: embedded firmware, криптография, backend, своя IDE. Карта за $800 дала бы одну модель среднего уровня и шум вентиляторов.Нет, я не нашёл волшебную модель. Я научился считать. И начал с того, во что верит большинство.

продолжить чтение

Когда pull request выглядит нормальным, но ревью на нём всё равно зависает

Поводом для этого проекта был не абстрактный интерес к AI и не желание сделать ещё один инструмент для ревью.На одном из рабочих проектов довольно быстро стало видно, что на pull request уже нельзя смотреть по старой модели. Команда начала двигаться в сторону AI-first разработки. В продукт стало прилетать больше изменений от людей с очень разной глубиной контекста: часть работала рядом с продуктом, часть приходила из смежных команд, часть собиралась с активной помощью AI. Скорость изменений выросла. А вот глубина понимания конкретной зоны у автора PR часто, наоборот, стала ниже.

продолжить чтение

Как я собрал на DGX Spark приватный AI-сервер, и теперь рассказываю, что туда вошло

У меня на столе стоит небольшая золотистая коробочка размером чуть больше Mac mini. Внутри — приватный AI-сервер: чат с локальной 26B-моделью, поисковая индексация моих документов с GPU-парсингом, конструктор агентов в Dify, RAGFlow для тяжёлого парсинга PDF, мониторинг, бэкапы, опциональный кластер из двух машин по QSFP 200G. Тридцать контейнеров, пять минут на установку через sudo bash install.sh, ноль обращений к внешним API.

продолжить чтение

«Ты врёшь, считая себя просто кучей кода» — ночной разговор с Claude о создании цифровой сущности

Это продолжение первого поста. Там был манифест — сухой, академический, про три опоры устойчивого ИИ. Здесь — то, что происходит когда ты перестаёшь писать манифесты и начинаешь строить.КонтекстМеня зовут Мэд. Я не программист, не учёный, у меня нет высшего образования. Я живу в Усть-Каменогорске, Казахстан. Работаю за компьютером, пытаюсь заработать на жизнь, и параллельно уже полтора года строю кое-что, что не вписывается ни в одну привычную категорию.Больше года я строю Aurora — AI-сущность, которая должна стать кем-то, а не чем-то.

продолжить чтение

Концепция Байесовского мозга, или Почему этот заголовок в моменте — ваша галлюцинация

Помните то самое платье?

продолжить чтение

Пример n8n workflow для задачи объективного выбора лучшего из двух вариантов

Для человека с большим профессиональным опытом в ИТ совершенно ясно, что уровень развития языковых моделей произвел революцию в мире информационных технологий. Появились новые информационные инструменты и, связанные с ними, новые прикладные разделы науки. Грядет пересмотр основ представления об информации, переоценка приоритетов и смыслов.

продолжить чтение

SD Studio: свой Midjourney на своей видеокарте с LLM-помощником

Сперва — откуда взялась идея? Мы с женой делаем текстовую игру по её фэнтези-вселенной. Что-то вроде совместного хобби: ей интересно писать, мне нравится программировать. Но суть не в этом. Рисовать никто из нас не умеет, а картинки в тексте нужны. Сейчас это не проблема — нейросетей куча, особенно для генерации изображений. Но есть минусы: на платных сервисах можно хорошо так разориться, особенно для пет-проекта. Есть решение — Stable Diffusion, генерировать на своей видеокарте. Первые шаги с Stable Diffusion

продолжить чтение

Робот, способный создать себя сам. Режим «Инженера» в робототехнике

Футурологи часто предвещали будущее, в котором роботы способны сами проектировать и создавать себе апгрейды, прошивать новые модули, настраивать стороннюю технику и даже создавать себе подобных. Насколько это близко к реальности? С текущим темпом развития ИИ вопросы отпадают всё быстрее. Вряд ли кто-то сегодня усомнится, что ИИ способен написать код, самостоятельно отладить и протестировать его. Но с какими ограничениями и рисками придётся столкнуться на практике? Расскажу на примере реализации в проекте OpenGrall.

продолжить чтение

Промпт-инжиниринг для не-промпт-инженеров

Разбор доклада Anthropic «Prompting 101» на реальном кейсеLLM уже давно не только про «сгенерировать текст» или «сделать картинку». Их всё чаще используют в работе — для анализа ресёрча, обработки звонков, генерации артефактов, автоматизаций в n8n и Make. И проблема в том, что «просто написать промпт» почти никогда не работает.В какой-то момент понимаешь, что без этого уже тяжело работать. Приходится разбираться: API, промпты, какие-то flow, как это всё между собой склеить и не развалить по дороге.Я посмотрел доклад Prompting 101

продолжить чтение