deepseek. - страница 4

Как заставить LLM считать точно: генерация кода вместо генерации ответов

Недавно в популярном Facebook-посте: «GPT работает всё хуже. Просишь пересчитать формулу на 600 грамм, он бодро выдаёт две по 300. Пора, видимо, валить».Проблема знакомая каждому, кто пытался использовать LLM для расчётов. Но это не деградация конкретной модели. Это фундаментальное ограничение архитектуры. И у него есть решение.Почему LLM не умеют считатьTransformer предсказывает следующий токен на основе вероятностного распределения. Когда вы просите модель умножить 18 на 38.76, она не вызывает калькулятор. Она генерирует последовательность символов, которая «похожа» на правильный ответ.

продолжить чтение

Хотел перестать копировать из Wordstat. Получилась мультиагентная система с Ensemble Voting

Ни одного из этих слов в моих планах не было. Я просто задолбался вручную таскать ключи из Wordstat в Excel.Версия 1: лишь бы не копировать рукамиЗнакомая ситуация: открываешь Wordstat, вводишь маску, ждёшь, копируешь, вставляешь в Excel. Следующая маска. И так по кругу. Каждый раз одно и то же.Написал скрипт. Никакой архитектуры просто цикл, запросы к Bukvarix (у них есть бесплатный API), файл на выходе. Работало. На этом стоило остановиться.Не остановился.

продолжить чтение

Как установить DeepSeek на сервере: практическое руководство

продолжить чтение

PG_EXPECTO и математическая статистика: как метод голосования повышает достоверность рекомендаций ИИ для PostgreSQL

pg_expecto: Коллективный разум вместо случайных ошибок. Telegram: @pg_expectoGitHub - 

продолжить чтение

Китай приравнял ИИ к обороне: технологии впервые стали приоритетом №1 в пятилетке

15-й пятилетний план Китая на 2026–2030 годы, принятый

продолжить чтение

Мы протестировали 34 AI-модели на задачах менеджера. Вот что доступно в России без VPN

Каждый производитель LLM заявляет о лидерстве. OpenAI – «самая мощная модель». Anthropic – «самая безопасная». Яндекс – «лучше всех понимает русский». Проверить эти заявления, не потратив месяц на ручное тестирование, – задача нетривиальная. Мы решили попробовать.Обновление от 17 марта 2026. В первой версии статьи модели Grok (xAI) были отнесены к категории «доступны в России без VPN». Это ошибка – x.ai и API Grok заблокированы для российских IP. Мы исправили таблицы и рейтинги. Grok остаётся сильной моделью, но для доступа из России потребуется VPN. Также в исследование добавлена модель GLM-5 от

продолжить чтение

Дроны над Дубаем и новостной агрегатор: Flask, MCP-сервер, AI-агент и Telegram-бот

28 февраля 2026 года я стоял у окна на 41-м этаже в JBR в Дубае и смотрел, как системы ПВО ОАЭ перехватывают иранские беспилотники прямо над моей головой. Полез в новости — в Google и Яндексе статья двухчасовой давности, Telegram‑каналы противоречат друг другу. Когда это происходит где‑то далеко, не придаёшь этому значения. Когда ты в центре событий, то хочешь знать оперативную информацию, желательно с push‑уведомлениями.

продолжить чтение

Microsoft начинает масштабную ИИ-экспансию в Африке

Корпорация Microsoft стремится к тому, чтобы как можно больше африканцев использовали ее инструменты на основе искусственного интеллекта. Американский технологический гигант конкурирует с китайской компанией DeepSeek за клиентов из самой молодой и быстрорастущей части населения планеты.

продолжить чтение

Облачные модели Ollama в задачах code review — честное сравнение на примерах

С недавних пор AI-инструменты стали важной частью разработки. Такие решения, как Cursor, Codex и Claude Code позволяют разработчикам генерировать код, ускорять написание функций и автоматизировать рутинные задачи. Это существенно повышает скорость разработки. Однако у такого подхода есть и обратная сторона: код начинает появляться быстрее, чем команды успевают его качественно проверять. В результате нагрузка на процесс code review

продолжить чтение

9 агентов, 6 моделей, 1 сервер: как собрать ИИ-компанию на open-source в марте 2026

Я собрал команду из 9 ИИ-агентов, которая проектирует, пишет, тестирует и деплоит других ИИ-агентов. Полный цикл — от пользовательского запроса до production-ready кода с тестами и security review. Без людей в цикле.Ниже — конкретика: какие модели, на какие роли, почему именно эти, как они шарят GPU, сколько стоят в гигабайтах и какие бенчмарки реально определяют выбор. С конфигурациями развёртывания от одной RTX 4090 до кластера A100.TL;DR: 9 логических агентов = 3-4 физических модели. Минимальный сетап — 24 GB VRAM (одна RTX 4090). Полный продакшен — 211 GB (четыре A100). Интерактивный дашборд

продолжить чтение

1...234567...2030...38