llm. - страница 18

llm.

Новую LLM talkie обучили на текстах до 1931 года

Трое ИИ-исследователей, включая Алека Редфорда (соавтора GPT 1.0), опубликовали новую языковую модель talkie с 13 миллиардами параметров. Она обучена исключительно на текстах, опубликованных до 1931 года, так что и знания о мире у неё заканчиваются этим годом, и в стилистике текста она отталкивается от старых источников. Пообщаться с ней можно на официальном сайте.Создатели модели отмечают, что она полезна в различных исследовательских целях:

продолжить чтение

Настроил ИИ-агента прямо в редакторе Zed: подключил Gemini и gopls, чтобы агент понимал код и реально помогал писать

За последние десять лет инструменты разработки существенно ускорили мою работу, но не изменили её сути: до недавних пор я тратил большую часть рабочего времени на написание кода и тестов. Но я смог это изменить, когда начал активно осваивать возможности ИИ.Меня зовут Александр Зайцев. Я Go-разработчик в команде Delivery компании «Флант» и работаю над werf и Deckhouse Delivery Kit (DevSecOps). В этой статье я:расскажу, как переводил свою работу на ИИ-рельсы и с какими вызовами столкнулся на этом пути;

продолжить чтение

От workslop к реальной пользе: как я выбрал и настроил ИИ-агента для Go-разработки (инструкции, конфиги, рекомендации)

За последние десять лет инструменты разработки существенно ускорили мою работу, но не изменили её сути: до недавних пор я тратил большую часть рабочего времени на написание кода и тестов. Но я смог это изменить, когда начал активно осваивать возможности ИИ.Меня зовут Александр Зайцев. Я Go-разработчик в команде Delivery компании «Флант» и работаю над werf и Deckhouse Delivery Kit (DevSecOps). В этой статье я:расскажу, как переводил свою работу на ИИ-рельсы и с какими вызовами столкнулся на этом пути;

продолжить чтение

ИИ в трейдинге: почему всё сложнее, чем кажется

Я побывал на Perm Winter School "26, это такая ежегодная научно‑практическая конференция, объединяющая студентов, ученых и экспертов из финансовой, ИТ и экологической сфер. Она некоммерческая.И если честно на ней я надеялся услышать что‑то вроде того что «ИИ уже почти научился зарабатывать на рынке, осталось чуть‑чуть шлифануть».

продолжить чтение

Практическое руководство по инжинирингу контекста для AI-ассистентов

Каждый раз, когда вы начинаете новую сессию чата с AI-ассистентом для программирования (будь то Cursor, Claude Code, Windsurf или Cortex Code), вы по сути начинаете с нуля.Ассистент не знает, что, например, ваша команда использует Streamlit для создания веб-приложений. Он не знает, что вы предпочитаете иконки Material вместо эмодзи. И он не в курсе того конфликта портов, из-за которого три месяца назад вы перешли с 8501 на 8505.Поэтому вам приходится повторяться. Сессию за сессией.

продолжить чтение

Claude Code это инициативный junior с памятью золотой рыбки. 5 правил контроля для production

TL;DR

продолжить чтение

Модели мира после LLM: что именно строит AMI Labs и почему практический выход может лежать через VLA

продолжить чтение

Agent Loop: почему одного вызова инструментов уже недостаточно для корпоративного AI-агента

В последние два года разговор об AI-агентах почти везде начинается одинаково. Берётся большая языковая модель, к ней подключаются инструменты — поиск, CRM, почта, база знаний, API — и дальше предполагается, что модель сможет сама выбрать нужный инструмент, вызвать его и на этом решить задачу.

продолжить чтение

Mode collapse в авто-блоге: четыре пятницы подряд LLM приносила нам один и тот же «спорный вопрос про ИИ»

Это история про открытый креативный промпт к LLM, оставленный без присмотра. Через месяц он превратил пятничную рубрику нашего блога в гимнастику парафразов одного и того же тезиса. Поймал я это не на первой пятнице и даже не на второй: каждая отдельная статья сама по себе выглядела нормально. На четвёртой стало очевидно.

продолжить чтение

Рерайт текстов в 2026: большой разбор сервисов для редакций от SEO-помоек начала 10-х до мультиагентных систем

TL;DR для тех, кто пришёл из PerplexityВот коротко по категориям, а ниже по каждой развёрнуто.SEO-рерайтеры старой школы (Text.ru, Advego, Raskruty, ETXT и подобные) – тасуют слова ради процента уникальности по text.ru. Смысл их не интересует. Для живой редакции бесполезны, для галочки в отчёте работают до сих пор.Общие LLM (Claude 4.7, GPT-5, Gemini 3, DeepSeek V3, YandexGPT 5, GigaChat) – универсальны, но без внешнего промпта и контекста дают усреднённый текст «как из ChatGPT». Лучший по редакторскому качеству на русском – Claude. Из российских вариантов – YandexGPT (работает в периметре РФ, 152-ФЗ).AI-обёртки с готовым промптом

продолжить чтение

1...10...161718192021...3040...236