Странные ИИ‑существа из 00-х, которые научились размножаться сами
Искусственный интеллект пришел в мир почти 70 лет назад. А наши жизни он захлестнул поистине атилловским вторжением совсем недавно.
Lemonade — локальный LLM-сервер при поддержке AMD. Зачем он нужен, если есть Ollama?
Ryzen AI 9 HX 370 - это чип с NPU на 50 TOPS и Ollama его не видит - из-за своей архитектуры. Собственно, сама Ollama работает поверх llama.cpp, llama.cpp поддерживает GPU через CUDA, Metal, Vulkan и ROCm. А вот AMD GPU Ollama запускает - через ROCm и Vulkan. Но AMD NPU на базе архитектуры XDNA туда, к сожалению, не входит. Ryzen AI 300, Ryzen 8040, Ryzen 7040 - у всех этих чипов есть нейронный процессор, который при запуске Ollama простаивает.И вот Lemonade Server появился именно для этого сегмента.Что за LemonadeДля начала - это не корпоративный продукт AMD. Они финансируют разработку и предоставляют инженеров, но это не официальный продукт с корпоративным релизным циклом.
Как знакомый знакомого сделал 1,5 млн рублей на фейковых клиентах банка
Пример сгенерированного "котоклиента"
Triage-and-Voice: как опыт колл-центров даёт рабочий паттерн для LLM-продуктов
Почему саппорт-бот на LLM работает против васLLM одновременно решает две вещи: что сказать и как это сказать. Под давлением пользователя (эмоциональным или манипулятивным) вторая задача почти всегда побеждает. Модель начинает звучать максимально полезно и заботливо, и при этом врёт.Простым промптом это не вылечить. Более дорогая модель тоже не спасает. Проблема сидит глубже, в архитектуре.
Почему ваш LLM-бот врёт клиентам — и паттерн, который это чинит
Почему саппорт-бот на LLM работает против васLLM в саппорте одновременно решает две задачи: что сказать и как это сказать. Под давлением пользователя вторая всегда побеждает — модель звучит заботливо и при этом врёт. Промптом это не чинится.Дальше — два громких факапа, их общий корень и архитектурный паттерн Triage → Gate → Voice, который разделяет эти задачи.
Гефестыч: наш опыт автоматизации Code Review через LLM. «Грабли», решения, код
ВведениеКто мы?Привет, Хабр! Меня зовут Данил Чечков, я Team Lead команды High End Meta Backend в «Леста Игры». Мы занимаемся всей web-составляющей «Мира кораблей». В нашем арсенале огромное количество микросервисов, работающих на Python и Go. Мы отвечаем за покупки в meta-валюте, авторизацию, стабильность инвентаря и профиля игрока, клановые сервисы, а также многое-многое другое.Наш основной продукт – высококачественные web-сервисы на стыке интеграции с игрой. И, да, интеграция – часть нашей работы.
Голосовой агент — это не чатбот с телефоном: 40 часов экономии и $100, сожженные на ботах
Я однажды примерно за сутки сжег около $100 на голосовом агенте.Не на большом запуске. Не на огромной базе. Не на хитрой рекламной кампании. Просто на небольшом пуле холодных контактов, где агент периодически попадал на voicemail, IVR, секретарей и других ботов.В какой-то момент два не очень умных голосовых процесса могли довольно долго вежливо говорить друг другу что-то в духе:Здравствуйте.Здравствуйте, чем могу помочь?Я звоню, чтобы…Здравствуйте, чем могу помочь?Конечно, подскажите, пожалуйста…
Как я Zabbix с LLM дружил в свободное время. Архитектурный обзор взаимодействия с нейросетью. Часть 1 «При чем тут ТЗ»
ВведениеКак мы тебя понимаем, маленький котик
Докинз увидел сознание в Claude. Маркус ответил критикой
30 апреля британский биолог Ричард Докинз — автор "Эгоистичного гена" и "Бога как иллюзии" — опубликовал в UnHerd
Второй мозг строят все. Но большинство — не для себя
В моём инфо-пузыре последний месяц все строят второй мозг в Obsidian по методу Карпатого и рассказывают, как это повышает эффективность агентов. Гист прочитан, vault переформатирован, Claude подключён.Но никто особо не останавливается на вопросе: а для кого именно строится эта система — для агента или для себя? И есть ли вообще разница.

