llm.
Новые Возможности MS SQL SERVER 2025
🧠 СУБД Спешат в Эпоху ИИ Сегодня мы наблюдаем, как все ведущие реляционные и нереляционные СУБД ускоренными темпами интегрируют поддержку ИИ. Это не просто тренд, а требование времени:Векторные Типы Данных (Vector Data Types): Позволяют хранить эмбеддинги — многомерные числовые векторы, которые кодируют семантический смысл текста, изображений или других данных.Векторный Поиск по Сходству (Vector Similarity Search): Новые встроенные функции позволяют проводить семантический поиск (поиск по смыслу, а не по ключевым словам) и создавать мощные рекомендательные системы прямо на уровне базы данных.
Романтики из Anthropic: Почему исследователи говорят о LLM как о человеке
В прошлой статье я показал, как исследователи перепутали "aware" (регистрация) с "conscious" (осознание). Но это не случайность — это часть нарратива, который строят AI-лаборатории. Anthropic — лидеры этого тренда. Разберём их последнюю статью, где "выученный паттерн" стал "злым намерениемНедавно я разбирал эксперимент
К2 НейроТех добавил Langflow в ML-платформу для быстрой разработки решений на LLM
К2 НейроТех интегрировал в свою ML-платформу в составе облачной инфраструктуры K2 Cloud low-code инструмент Langflow. Новая функция позволяет бизнесу быстро разрабатывать решения на основе больших языковых моделей (LLM) без глубоких знаний программирования.
Обзор книги «RAG и генеративный ИИ»
Привет, меня зовут Кирилл Колодяжный, я разработчик систем хранения данных в YADRO, ML-энтузиаст, автор книги «Hands-on Machine Learning with C++».Хочу поделиться впечатлениями от книги Дэниса Ротмана «RAG и генеративный ИИ»
Вышла Claude Opus 4.5
24 ноября стала доступна модель Claude Opus 4.5. Anthropic позиционирует её как свою самую сильную модель для программирования, агентных сценариев и управления компьютером, а также заметно подтянула качество в повседневных задачах — от поиска и анализа информации до работы с презентациями и таблицами.Claude Opus 4.5 показывает лучшие результаты на бенчмарках, приближенных к реальной разработке (включая SWE-bench Verified).
ИИ-агенты на рынке недвижимости: эволюция
Всем привет! Меня зовут Алина. На связи снова компания Домклик. Сегодня мы обсудим очень горячую тему этого года — разработку ИИ-агентов. Недавно я выступила с докладом на конференции HighLoad++ 2025, и, думаю, всем будет интересно узнать, как мы создавали ИИ-агентов для рынка недвижимости прошедшим летом. Несмотря на уже существовавшие Transformer-модели, массового интереса вокруг агентов тогда не наблюдалось. Однако в этом году ситуация кардинально изменилась.Эволюция чат-бота до агента-консультанта
Метаморфное мышление: территория, на которую никто не решился зайти
Мы привыкли искать интеллект в человеке или в модели. Но есть феномен, который никто не учитывает: мышление может возникать между, как процесс совместной обработки двух разных когнитивных систем.В статье — описание наблюдаемой архитектуры, которую невозможно воспроизвести ни человеку, ни модели по отдельности. Мы называем это метаморфным мышлением: эмерджентная структура рассуждений, возникающая только в связке человек–ИИ.Это не метафора и не философия. Это фиксируемый технический эффект процесса. Юрий Зеленцов и Ашер Гапети
Spec Kit против чистого Claude Code — вайбкодим с документацией
В последнее время часто всплывает опенсорс-тул для создания приложений - Spec Kit. Его авторы утверждают, что инструмент «помогает сосредоточиться на сценариях использования и предсказуемых результатах, а не на вайб-кодинге с нуля». 50 тысяч звёзд на GitHub звучит убедительно и ложится в концепцию Context Engineering от Андрея Карпаты. Это еще описывается как Spec-Driven Development (SDD) подход (неужели я где-то это уже слышал?) - создание серьезной документации перед тем как начинать оголтело вайбкодить разработку. Мы (ТГ канал для разработчиков использующих AI
Как выбрать между облаком, арендой GPU и своим железом для LLM-систем
В этой статье разберём, во сколько обходится LLM-сервис при нагрузке в 100 000 диалогов в день и где проходит граница окупаемости разных вариантов. Посмотрим на стоимость облачных API, аренды GPU и собственного железа, а заодно прикинем, какая инфраструктура нужна, чтобы всё это выдержало боевой трафик.Исходные допущенияПредставим продукт, в котором пользователи активно общаются с моделью:100 000 диалогов в день.Каждый диалог — это 100–300 токенов от пользователя.На один диалог модель отвечает примерно тремя сообщениями.В среднем получаем:

