нейросети. - страница 5

Claude Code: маршрут обучения и полезные ресурсы vol.2 (2026)

Не секрет, что сейчас многие вайбкодеры отдают предпочтение Claude Code, ставя его на уровень выше Codex или Gemini - за удобный workflow, быстрые итерации и ощущение агента, а не просто чата. Помните, я писала про

продолжить чтение

Stable Diffusion XL: так ли сложно использовать локальную модель?

продолжить чтение

На Урале и в Сибири откроются первые студенческие лаборатории для обучения вайб-кодингу

продолжить чтение

Selectel запустил бесплатный курс по работе с ML-моделями

Привет, Хабр! Если вы планируете начать работу с ML-моделями, рекомендуем пройти бесплатный мини-курс Академии Selectel

продолжить чтение

Cursor показал 5 графиков, которые хоронят все публичные ИИ-бенчмарки для кода. Разбираемся

продолжить чтение

Qwen 3.5 с 397 млрд параметров запустили на iPhone 17 Pro: для этого понадобился внешний SSD

Разработчик под никнеймом Anemll запустил языковую модель Qwen 3.5 с 397 млрд параметров на iPhone 17 Pro. Веса модели подгружали с внешнего SSD, а скорость генерации ответов составила всего 0,6 токенов. Авторы проекта признают, что решение не годится для нормального использования, а лишь демонстрирует возможности.

продолжить чтение

Apple проиграла ИИ-гонку? Или выиграла ту, о которой никто не говорит?

Все сейчас говорят об ИИ-гонке. Или об ИИ-пузыре и о том, когда он лопнет.GPU от NVIDIA, дата-центры на миллиарды долларов, гигантские тренировочные прогоны. OpenAI, Google, Claude, Microsoft.

продолжить чтение

Почему нам пришлось превратить нормативные документы в граф, а не просто загрузить их в векторную базу

Когда говорят про RAG, обычно имеют в виду довольно прямую схему: взять документы, нарезать их на фрагменты, посчитать эмбеддинги, сложить всё в векторную базу и поверх этого подключить LLM. На демо это часто работает. Иногда работает и на корпоративных данных. Но на нормативных документах такой подход очень быстро начинает сыпаться.

продолжить чтение

Как мы пришили LLM «спинной мозг»: архитектура рефлексов для ИИ-агентов в 60 FPS

Привет, Хабр!Интеграция современных LLM в геймдев, виртуальных ассистентов и робототехнику сейчас напоминает попытку прикрутить двигатель от космического шаттла к телеге. У вас есть невероятно умная модель, которая понимает тончайший контекст, но её inference latency (задержка вывода) убивает любой пользовательский опыт.Пока ваш ИИ-NPC парсит входящий аудиопоток, отправляет запрос по API, ждет генерации ответа и распаковывает JSON в анимацию, проходит от 1 до 3 секунд. В динамичной среде — это вечность.

продолжить чтение

Экологический след ИИ: сколько энергии и воды потребляют крупные модели и как сделать их более устойчивыми

продолжить чтение

1...345678...2030...195
Rambler's Top100