LLM-клиент с MCP – дорогой и неэффективный подход в разработке
В наше время тяжело представить разработку цифровых продуктов, в которые хоть в какой-то степени не включили так называемый ИИ на больших языковых моделях (LLM). И я вовсе не против, но у меня вызывают вопросы подходы разработчиков к способам внедрения интеллектуальных инструментов в свои продукты.Думаю, абсолютное большинство оптимальным способом внедрения интеллекта в продукт выбрали использование проприетарных моделей через API, с добавлением кастомного функционала через вызовы MCP серверов. Кажется, это уже даже стало стандартом, и в этом я вижу проблему.
Связанные одной целью: как находить нужных и полезных людей на закрытом IT-рынке России
Сделать лучший доклад на конференции и уйти в угол с ноутбуком — плохо. Раздавать всем визитки, заглядывая в глаза — фу таким быть. Завершить крупный проект, поблагодарить команду и засесть за новый фрагмент кода — безрезультативно лично для вас. Заполнить страницу в Линкедин и сидеть ждать, когда кто-то клюнет — имитация деятельности. Хард скилз — важны без сомнений, софт скилз — не решают, метанавыки двигают вперёд. Но окончательное слово за связями, особенно в российском ИТ.
Делаю своего ИИ-помощника для экосистемы HalNet
Локальный ИИ-ассистент прямо в мессенджере HalChat: без серверов, без рисков, только приватность и RAG.ВведениеЯ занимаюсь разработкой собственного мессенджера HalChat и недавно я запустил систему локальных ИИ, с которыми можно общаться прямо в браузере через обычный чат.И мне потребовался ИИ помощник, который бы вводил в курс дела внутри экосистемы и помогал пользователям обосноваться. Назвал я его — Halwashka AI.Почему бы не использовать готовые решения?
Конец лития, триумф AlphaFold и чьи-то тайны на старом HDD
Приветствую, читатели! Это Santry's Singularity blog — нерегулярные заметки о жизни на пороге сингулярности. Меня зовут Игорь Santry, я техноредактор. Я завел эту колонку, чтобы собрать лучшие лонгриды и видео, которые зацепили меня за последнее время.
Дифференциальная приватность в ML
Привет, Хабр! Сегодня поговорим в коротком формате о защите данных при обучении моделей, а именно в процессе обучения. Никому не понравится, если ваша нейросеть вдруг выдаст чужие паспортные данные или медицинские записи, правда? А ведь модели машинного обучения иногда склонны запоминать кусочки обучающего набора. Бывали случчаи, где из языковой модели вытаскивали строки с номерами телефонов и email тех людей, чьи данные были в тренировочном датасете. Стоит ли нам вообще кормить модель конфиденциальной информацией
Nano Banana 2 vs ChatGPT: сравниваем эволюцию в генерации AI изображений за полгода
Прошло полгода с момента релиза прорывной на тот момент генеративной модели от OpenAI и 5 месяцев с того момента, как я выложил статью 20+ кейсов с изображениями в ChatGPT. Или экономим 100,000₽+ на дизайнерахВ этой большой статье хочу показать то, как улучшилась генерация за это времяПрелюдияСразу с момента релиза у генераций ChatGPT были проблемы в этих направлениях ⤵️Консистентная перегенирация лиц или других объектов, если хочется делать стабильно. На фоне этого было создано огромное кол-во стартапов, тот же higgsfield.ai со своим Soul ID
