sonnet.

KV-кэш, экспертное сообщество и критическое мышление

Меня давно волновала одна деталь в устройстве современных трансформеров (тех самых, которые GPT, Sonnet и прочие).Механизм внимания всегда работает только назад. От многих экспертов (включая курс Эндрю Ына на Курсере) я слышал такое объяснение: Слово не может ссылаться на слова, которые оно ещё не знает. Назвается это казуальностью (причинностью).Но ведь в предложении “Зелёное яблоко лежит на столе” слово зелёное уже знает про слово “яблоко”, но не может на него сослаться. Непонятно

продолжить чтение

Как выбрать лучшего AI-ассистента для разработки: тестируем Codex, Claude и Cursor

продолжить чтение

ИИ-кодинг для 1С: Предприятие. Нынешнее положение дел

Я программист 1С с 18 летним опытом работы с 1С:Предприятие и общим опытом коммерческого программирования 22 года.С начала января 2025 года я перешел на парадигму работы "AI first" с полным созданием всего необходимого посредством ИИ кодинга.Мне понадобилось более полугода, чтобы разработать и протестировать на реальных рабочих задачах пайплайн работы с нейросетями, учитывающий особенности разработки под 1С. После чего я начал делиться накопленным опытом с коллегами, и собирать от них обратную связь о их нейросетевом опыте работы с 1С.Эта статья - текущее подведение итогов от меня и порядка пятидесяти коллег.

продолжить чтение

GLM-4.6 уже доступна в плагине Koda для VS Code. Можно попробовать бесплатно

Вчера GLM выпустили очередное обновление своей флагманской модели. Что завезли:Контекстное окно выросло до 200k токенов.Обещают, что кодинг стал быстрее и точнее. По крайней мере в бенчмарках.Больше «агентности» — модель умнее пользуется инструментами, анализирует и выводы делает без растраты лишних токенов.GLM-4.6 бьет по метрикам DeepSeek-V3.1-Terminus и даже Claude Sonnet 4.

продолжить чтение