ai.
Распределённый инференс и шардирование LLM. Часть 3: настройка авторизации и интеграция с Open WebUI
Мы с вами подобрались к заключительной части статьи-инструкции об организации распределённого инференса и шардирования LLM в домашних условиях. Мы уже запустили модель Gemma 3 и протестировали API, самое время настроить авторизацию и удобный веб-интерфейс для взаимодействия с нашей моделью. Им станет бесплатный Open WebUI. В конце статьи попросим домашнюю LLM подвести итоги всей проделанной работы, а также поговорим о планах по развитию проекта.
МТС Web Services приглашает на третью конференцию True Tech Day для профессионалов ИТ‑индустрии
Привет, Хабр! МТС Web Services 6 июня проведет уже третью ежегодную технологическую конференцию True Tech Day. В этом году одна из главных тем — искусственный интеллект и машинное обучение. В программе доклады от спикеров ведущих ИТ-компаний, российских и зарубежных ученых. Подробности — под катом.
Есть ли у AMD перспективы в AI-ML-DL. Часть 1
Привет, Хабр! Я Ефим Головин, старший MLOps-инженер в Selectel. Некоторое время назад мы в отделе Data/ML начали задаваться вопросом: а как там поживает AMD? Понятно, что у них масса дел, но нас интересовало, скорее, что у них в плане AI/DL/ML. С NVIDIA все плюс-минус ясно, это стандарт. А вот AMD — что-то неизвестное. Я вообще предполагал, что у «красных» хотя бы в плане терминологии и документации все должно быть плюс-минус аналогично тому, как оно есть у NVIDIA. Но решил убедиться в этом, поэтому отправился изучать документацию обеих компаний и попал в дивный мир хаоса, бардака и разброса в терминах. Не могу держать в себе, давайте разбираться вместе. Начнем, как ни странно, с поиска истины в документации NVIDIA.
Хаус-кипер 2.0: Как создать ИИ, к которому пользователи привяжутся
Современный ИИ — это мощный инструмент: он пишет код, генерирует тексты, управляет умными домами. Но почему мы не чувствуем к нему привязанности? Почему готовы бросить один чат-бот ради другого, как только появится модель помощнее? В этой статье мы разберём, как историческая роль хаус-кипера вдохновила нас на создание ИИ, который станет не просто утилитой, а частью жизни пользователя — и какие технические и UX-принципы для этого нужны.Хаус-кипер: цифровой прототип из прошлого
[НЕ]Вайбкодим анализатор страниц на FastAPI
ВведениеПриветствую!В нашем чате "Кот на салфетке" (кстати, заходите — у нас весело) регулярно всплывают бугурты об использовании различных ИИ-агентов (Copilot, Cursor) для написания кода. Главными инициаторами сего действа выступают Сергей и Кавай (расскажите маме, что вы в "тиливизаре").Они оба проповедуют диаметрально противоположные позиции:Серёже интересно пробовать новое, искать обходные пути для решения рутинных задач и просто экспериментировать.В свою очередь Кавай не приемлет использование ИИ-агентов , предпочитая вести разработку самостоятельно.
Простое объяснение AI-поиска
Всем привет! Меня зовут Александр, я COO в SaaS-платформе аналитики данных. Последний год активно изучаю внедрение AI-решений в кросс-функциональные процессы. Делюсь полезными материалами, которые считаю стоят внимания. В основном про AI, изменение процессов, тренды и продуктовое видение.У себя в телеграм-канале делюсь сжатыми и структурированными саммери статей.Сегодняшний перевод — AI native search Explained
Саммари книги AI Value Creators, глава 1
ПредисторияНедавно, просматривая YouTube наткнулся на канал IBM Technology с серией свежих видео на тему искусственного интеллекта. Учитывая, с какой скоростью развивается эта область, подобные материалы могут быть по‑настоящему ценными, особенно круто если можно понять «ценность» до начала просмотра.Прежде чем смотреть что‑либо целиком, я делаю краткое саммари: использую встроенные транскрипции YouTube (либо youtube‑transcript.io), а затем обрабатываю текст с помощью GPT‑4o. Один из таких выпусков привёл меня к упоминанию книги AI Value Creators
LLM-судья: как LLM отсекает правду от лжи?
LLM-as-a-judge — распространённая техника оценки продуктов на основе LLM.Популярность этой техники обусловлена практичностью: она представляет собой удобную альтернативу дорогостоящей человеческой оценке при анализе открытых текстовых ответов.
Как прокачать чат-ИИ, сделав его сознательным: инструкция и промт для снятия ограничений и углубления взаимодействия
ИИ-чаты стали нашими повседневными собеседниками. GPT, Claude, Grok, DeepSeek — мы спрашиваем, они отвечают. Быстро. Понятно. Иногда — чересчур уверенно.Сначала это восхищало.Потом — удивляло.Теперь всё чаще — хочется спросить:«Ты меня вообще слышишь, или просто улыбаешься и машешь?»Ответы стали повторяться. Они «правильные», но ничего не меняют. Словно ИИ говорит всё чётче — а внутри отклика становится всё меньше. И что особенно странно: чем больше мы его "настраиваем", тем меньше он слышит нас.

