ai. - страница 98

ai.

Новый «момент DeepSeek»? Память важнее масштаба

В мире искусственного интеллекта есть исследования, где достаточно нескольких страниц, чтобы понять – это нечто особенное. Engram от DeepSeek – именно такое.С новой моделью на подходе

продолжить чтение

Я заставил 14 нейросетей врать: Большой аудит галлюцинаций 2026

Или как я потратил неделю, чтобы доказать: ИИ сегодня — это красноречивые лжецы в костюмах экспертов.В конце 2025 года я устал читать маркетинг в стиле «наша модель умнее ChatGPT на 15%». Умнее по какому бенчмарку? MMLU? Это всё равно что мерить интеллект человека по результатам ЕГЭ.Я решил проверить одну простую вещь: способна ли нейросеть сказать «я не знаю»?Потому что в реальном мире — в медицине, праве, финансах — ответ «я не уверен» стоит дороже любой красивой, но выдуманной истории.Ниже — результаты слепого тестирования 14 топовых LLM (включая Claude 4.5, GPT-5.2, Gemini 3, Qwen, YandexGPT и

продолжить чтение

ИИ в промышленном IT: где заканчивается хайп и начинается измеримый эффект

В этом обзоре мы собрали ключевые идеи и практические инсайты из серии подкастов, записанных на конференции Industrial++. С руководителями AI- и IT-направлений из крупных промышленных компаний на мероприятии пообщались Василий Саутин, коммерческий директор платформы «Сфера» (ИТ-холдинг Т1) и его коллега, директор по продуктам платформы «Сфера», Сергей Полиненко.

продолжить чтение

Про GEO доказательно: +40% видимости в AI-выдаче, нейропоиске и ответах LLM-SGE (аналитика + стратегия)

Наконец, научное обоснование (или разоблачение?) про GEO/Generative Engine Optimization. Статья-этакий бенчмарк...)

продолжить чтение

Как мы делали ИИ-репетитора для ЕГЭ по математике

Пост-мортем студенческого стартапа.Глава первая. Собственное разочарованиеЗима 2023-го. В это время и я, и мой будущий кофаундер Артур учились в 11-м классе, усердно готовясь к финальным экзаменам. Подготовка большую часть времени состояла из отчаянных ночных посиделок, во время которых слезившиеся от яркости монитора глаза уже пятый раз подряд усердно перечитывали:«В правильной четырехугольной пирамиде через точку A параллельно BD проведена плоскость α, а через точки В и D параллельная ей плоскость β так, что сечения пирамиды этими плоскостями имеют равные площади»,

продолжить чтение

Claude Code научился запоминать задачи — но нужна одна настройка

Персистентные Tasks, субагенты на общем списке, зависимости между задачами — разбираем обновление и подводные камниТа самая одна настройкаВот она:CLAUDE_CODE_TASK_LIST_ID=my-project claude Всё. Теперь задачи сохраняются между сессиями. Закрыл терминал, открыл снова с тем же ID — задачи на месте.Что ещё появилось в новых Tasks:Субагенты видят общий список: 5 воркеров на одном task listЗависимости: "Задача 3 ждёт задачу 2" — агент понимаетMulti-session: Два терминала работают с одним списком

продолжить чтение

Нейросети не смогут в AGI

Современный AI не может накапливать интеллект со временем — каждый навык приобретается ценой забывания других. Это архитектурный тупик, а не вопрос масштаба.Количество параметров нейросетей уходит в бесконечность. Чипы дорожают. Масштабирование продолжается. Илон Маск обещает рождение AGI к концу этого года. И единственный лимит, который он видит, это количество доступной энергии и сами чипы.Но что вкратце делает трансформер-сеть?

продолжить чтение

Почему OpenAI на пути к банкротству?

Для Альтмана игра почти оконченаФото:  Lucas K, Unsplash

продолжить чтение

Моя RAG-система: как я за 8 дней собрал RAG для своего сайта визитки

За 8 дней частичной занятости я собрал RAG-систему на NestJS + PostgreSQL (pgvector), которая обрабатывает ~11 000 чанков документов. Первая версия отвечала около 4 минут, после оптимизации - 40–60 секунд. Главный вывод: RAG - это не «векторный поиск + LLM», а в первую очередь подготовка данных, фильтрация контекста и аккуратная работа с промптами.Зачем я это делалГлавной целью проекта было создать RAG-систему, которая могла бы отвечать на вопросы на основе моих знаний и опыта, это позволило понять реальную работу с большим количеством документов.RAG-система была интегрирована с моим сайтом-визиткой

продолжить чтение

Как я сделал классификатор обращений для телеком-поддержки на своей LLM за $10-месяц

Привет, Хабр! Расскажу как я fine-tuned модель Qwen2.5-0.5B для автоматической классификации обращений в службу поддержки, сквантовал её до 350 MB и задеплоил на дешёвый VPS.TL;DR: Модель классифицирует обращения клиентов по intent, category, urgency, sentiment и автоматически определяет куда маршрутизировать тикет. Работает на CPU, данные не покидают ваш сервер.Демо | API DocsЗачем это нужноВ типичной службе поддержки телеком-оператора:60% времени оператора уходит на понимание "а что вообще хочет клиент"

продолжить чтение