оптимизация.

Лифт не знает, куда ехать. И это лучший алгоритм, который мы придумали

Вчера я 4 минуты стоял в подъезде и смотрел, как два лифта одновременно поехали вверх. Все два. На табло — 12, 15, 18. Я на первом. Мне на шестой. И я подумал: вот я кучу лет пишу софт, оптимизирую запросы к базе данных, кеширую всё что движется — а эти две коробки на тросах не могут разобраться, кто из них должен спуститься за мной.Потом я погрузился в тему. И выяснил, что они не «не могут разобраться». Они математически

продолжить чтение

Сервис-партнер: дирижер стабильной инфраструктуры

продолжить чтение

Edge AI: почти всё о видеокамерах с искусственным интеллектом. Часть 2

Привет, Хабр! Это вторая часть статьи по мотивам доклада реверс-инженера Дмитрия Ильина для прикладной конференции по Data Sience Ai Conf 2025. Дмитрий рассказал о своём проекте OpenIPC, где IPC — это аббревиатура от IP-камера. Изначально он задумывался как специализированный дистрибутив Linux для IP-камер, но со временем превратился в большое комьюнити любителей опенсорса, каждый из которых является носителем уникального кусочка знаний.

продолжить чтение

Edge AI: почти всё о видеокамерах с искусственным интеллектом. Часть 1

Привет, Хабр! Эта статья написана по мотивам доклада реверс-инженера Дмитрия Ильина для прикладной конференции по Data Sience Ai Conf 2025

продолжить чтение

Калибровка. Технотриллер о том, к чему приводит слепая оптимизация

Привет, Хабр!

продолжить чтение

Архитектура «Обратного Хэша»: Нейросети без умножения

Современный Deep Learning уперся в производительность вычислений с плавающей точкой и пропускную способность памати. Мы предлагаем архитектуру, где нейрон — это не сумма произведений, а битовая хэш-функция. Ноль умножений, ноль сложений. Только логика и статистика.Концепт: Нейрон как компараторКлассический нейрон: Activation(Sum(Weight * Input))Наш нейрон: Output = AРазберем формулу:Input (64 бита): Входные данные.Mask (64 бита): «Взгляд» нейрона. Фиксированный случайный шаблон.XOR: Битовое сравнение. 0 — совпадение, 1 — отличие.popcount:

продолжить чтение

Не искусственный интеллект: как устроена научная работа в российских ИИ-лабораториях в 2026

продолжить чтение

Приручаем монстра: Как я пересадил Windows 10 на диету из Windows XP и сэкономил память

Многие считают, что кастомизация Windows — это просто «накатить тему и обои». Но если ваша цель — не только визуал, но и реальная производительность, приходится брать в руки скальпель. В этой статье я расскажу, как я декомпозировал тяжеловесную оболочку «десятки», заменив её модульными компонентами из эпохи золотого века софта. Итог: интерфейс ест всего 70 МБ ОЗУ, а процессор в простое честно показывает 0%. Для начала: история создания пака

продолжить чтение

Как я сделал классификатор обращений для телеком-поддержки на своей LLM за $10-месяц

Привет, Хабр! Расскажу как я fine-tuned модель Qwen2.5-0.5B для автоматической классификации обращений в службу поддержки, сквантовал её до 350 MB и задеплоил на дешёвый VPS.TL;DR: Модель классифицирует обращения клиентов по intent, category, urgency, sentiment и автоматически определяет куда маршрутизировать тикет. Работает на CPU, данные не покидают ваш сервер.Демо | API DocsЗачем это нужноВ типичной службе поддержки телеком-оператора:60% времени оператора уходит на понимание "а что вообще хочет клиент"

продолжить чтение

Титаны и MIROS: Google учит ИИ помнить как человек — от сюрприза к бесконечной памяти

продолжить чтение

123456...7
Rambler's Top100