deepseek. - страница 2

LLM – чистые эмоции

Главный отклик, который у меня вызывают LLM – это эмоции.Они все разные. Не только как модели, но и как каждая конфигурация в отдельном чате.Если вы это читаете, скорее всего знаете – LLM (без специальных костылей) знает только то, что видит в данный момент, в контексте системного мессаджа и конкретного диалога. В этом есть какой-то дзен – существует только то, что мы чувствуем сейчас. Нет ни прошлого, ни будущего.Мне поначалу трудно было это принять, но теперь я это даже ценю. Добавляет остроты моменту.Каждая LLM и каждая конфигурация – разная

продолжить чтение

OpenAI обвинила DeepSeek в незаконном использовании чужих технологий

Американская OpenAI обвинила своего китайского конкурента DeepSeek в незаконном использовании чужих технологий искусственного интеллекта для обучения следующего поколений своих моделей. Об этом разработчик ChatGPT предупредил специальный комитет Палаты представителей США по Китаю, сообщило агентство Bloomberg со ссылкой на служебную записку компании.

продолжить чтение

Топ нейросетей для рерайта текста: сохраняем факты, улучшаем стиль

Многих раздражает переписывать тонну тексту вручную. Тратить часы на переписывание, перефразирование или адаптацию объемных материалов энергозатратно и часто неэффективно. На помощь может прийти искусственный интеллект.В нынешнее время, когда новые модели выходят довольно часто, легко запутаться. Поэтому возникает вопрос - какая нейросеть справится лучше с задач��й рерайтинга? Сегодня я протестирую ChatGPT 5.2, Claude Sonnet 4.5, Gemini 3 Pro, Grok 4 и DeepSeek V3.2 в некоторых задачах взаимодействия с текстом. Примите стратегически удобное положение, ну а я приступаю к сравнению.

продолжить чтение

Обзор робота Xiaozhi

Приветствую всех. В данной статье я расскажу, как заказал, отремонтировал и изучил новейшего голосового робота из Китая. Статья не является рекламой, я оцениваю от себя как независимый программист. Ввиду некоторой спешки, данная статья не будет покрывать все аспекты, мы лишь коротко пройдёмся по устройству данного робота. Первые упоминания о данном проекте датируются началом 2025 года. Примерно с октября этого же года (5 месяцев назад на момент написания поста) код стал доступен на GitHub: https://github.com/78/xiaozhi-esp32

продолжить чтение

Alibaba вкладывает $431 млн в агрессивное продвижение своего Qwen AI

Лунный Новый год становится ареной масштабной борьбы за пользователей ИИ-сервисов. Alibaba делает самую крупную ставку, рассчитывая, что щедрые бонусы помогут её ИИ-приложению быстро нарастить аудиторию и обойти конкурентов.

продолжить чтение

DeepSeek строит ИИ-поисковик и платформу автономных агентов

продолжить чтение

Совет соседа или совет от DeepSeek?

Всем привет! Я Дарья Васильева и отвечаю за DevRel в ПГК Диджитал. В этой статье я хочу поделиться своим любимыми лайфхаком при работе с таблицами �� программе Excel.

продолжить чтение

Я заставил 14 нейросетей врать: Большой аудит галлюцинаций 2026

Или как я потратил неделю, чтобы доказать: ИИ сегодня — это красноречивые лжецы в костюмах экспертов.В конце 2025 года я устал читать маркетинг в стиле «наша модель умнее ChatGPT на 15%». Умнее по какому бенчмарку? MMLU? Это всё равно что мерить интеллект человека по результатам ЕГЭ.Я решил проверить одну простую вещь: способна ли нейросеть сказать «я не знаю»?Потому что в реальном мире — в медицине, праве, финансах — ответ «я не уверен» стоит дороже любой красивой, но выдуманной истории.Ниже — результаты слепого тестирования 14 топовых LLM (включая Claude 4.5, GPT-5.2, Gemini 3, Qwen, YandexGPT и

продолжить чтение

Fine-tuning Qwen-8B под проприетарный синтаксис (CADINP) на одной RTX 3090: опыт инженера-конструктора

Проблема: Галлюцинации в инженерных расчетахЯ занимаюсь расчетами строительных конструкций в комплексе SOFiSTiK. Основной инструмент взаимодействия с ним — внутренний язык CADINP. Это мощный, но старый процедурный язык с жестким синтаксисом: строгая последовательность модулей (AQUA -> SOFIMSHC -> ASE), специфичные команды фиксации узлов и неявные зависимости.SOTA-модели (ChatGPT-4o, Claude 3.5 Sonnet) справляются с CADINP посредственно. Основные проблемы при генерации кода general-purpose моделями:Синтаксический шум: Выдумывание несуществующих аргументов функций.Потеря контекста:

продолжить чтение

Голоса в голове делают ответы ИИ лучше — исследование Google

Исследователи из Google и Чикагского университета выяснили

продолжить чтение

Rambler's Top100