llm. - страница 138

llm.

Ваш ИИ-ассистент — это новое поколение компиляторов

Команда AI for Devs подготовила перевод статьи о том, как ИИ меняет саму суть программирования. Автор сравнивает LLM с компиляторами и утверждает, что роль разработчиков постепенно смещается от написания кода к управлению архитектурой и обучению ИИ. Как думаете, это угроза или эволюция профессии?В последнее время я много пользуюсь ИИ-ассистентами программирования. Могу подтвердить — Claude Code

продолжить чтение

Ваш AI-кодер — оптимистичный халтурщик. Как накинуть на него вожжи и получить рабочий MVP

продолжить чтение

Nvidia CMP – микроскопы для забивания гвоздей? Копаем глубже…

Почему видеокарта, имеющая неплохие вычислительные возможности, в Stable Diffusion работает в 20 раз медленнее, чем RTX 3060? Почему в LM Studio она становится фаворитом, а в ComfyUI карета превращается в тыкву? Почему FurMark на CMP 90HX тормозит, а на CMP 50HX «бублик» крутится почти нормально? Разгадки в разных программных ограничениях, которые можно найти с помощью экспериментов. Я купил три майнинговые карты Nvidia, чтобы понять, можно ли заставить их эффективно работать.В этот раз мы рассмотрим:статистику производительности в LM Studioкак всё печально в ComfyUI и Stable Diffusionанатомию программного кода GPU

продолжить чтение

IBM Granite-Docling: новый стандарт работы с документами

Обычно инструменты для работы с документами решают одну задачу: кто-то конвертирует файлы, кто-то анализирует тексты, кто-то отвечает на вопросы. Granite-Docling

продолжить чтение

ADSM: итеративность и иерархия

В прошлой публикации я кратко описал своё представление о наиболее важных ограничениях Моделей (LLM):работа только с текстом: вход и выход - текстовые файлы;ограниченность контекстного окна;все входные данные и все результаты одного диалога размещаются в рамках одного контекстного окна;расширяющийся контекст (вход меньше выхода) - признак "творческой" работы Модели, сужающийся - признак "инженерной" работы (повторяемой);противоречивые (или просто лишние) данные приводят к размыванию контекста и снижению повторяемости;

продолжить чтение

Агенты, которые не теряют цель: как научить ИИ решать многошаговые задачи

продолжить чтение

SWE-MERA — новый динамический бенчмарк для моделей агентной генерации кода

Всем привет! Пару месяцев назад Альянс в сфере искусственного интеллекта, в который MWS AI тоже входит, запустил

продолжить чтение

Нейро-дайджест: ключевые события мира AI за 3 неделю сентября 2025

Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.Меня зовут Вандер

продолжить чтение

Не просто RAG: Строим MCP-сервер на Node.js, чтобы дать LLM «архитектурное зрение»

Привет, Хабр!Мы живем в удивительное время. Попросить LLM написать для нас код стало так же естественно, как гуглить ошибку. Но у этой магии есть предел. Попросите модель написать quickSort, и она справится блестяще. А теперь попросите ее: «Добавь метрики Prometheus в метод processOrder в нашем проекте».И тут магия рушится. LLM — это гениальный, но страдающий амнезией стажер. Она знает все языки мира, но не имеет ни малейшего понятия о вашем проекте. Она не знает, какой у вас логгер, как вы обрабатываете ошибки и что у вас уже есть готовый MetricsService

продолжить чтение

Галлюцинации LLM: запретить нельзя использовать

Давайте поговорим о галлюцинациях LLM — больших языковых моделей.На первый взгляд это выглядит как ошибка, ложь или выдумка. В недавнем отчёте OpenAI Why Language Models Hallucinate

продолжить чтение