llm-агент. - страница 6

Мой личный экзамен: как я разработал MVP LLM-агента на Google ADK

Мой личный экзамен: как я разработал MVP LLM-агента на Google ADKУже несколько лет я работаю в качестве CTO компании ASRP

продолжить чтение

Как служба поддержки ЮMoney научилась общаться с пользователями из разных стран, не зная их языка

Привет, Хабр. Мы – Даша (инженер машинного обучения) и Наташа (ведущий аналитик в ЮMoney). В этой статье расскажем о системе машинного перевода, разработанной как end-to-end-решение для многоязычной поддержки в финтех-компании. Рассмотрим архитектуру, технические детали реализации и практические результаты внедрения системы. А ещё покажем, как общались с пользователем из Казахстана.

продолжить чтение

LLM против хаоса: как я автоматизировал ревизию прав доступа в админке Авито

Привет! Я Андрей и сегодня расскажу, как сделал мультиагентную систему, которая автоматизировала ревизию доступов в бэкофисе Авито, копившихся годами. Вы узнаете, как собрать LLM-систему с четырьмя агентами и супервизором, которая не только сгенерировала описания прав доступа, но и с точностью 77% нашла их владельцев без передачи кода и документации внешним моделям. Вперед к прочтению!

продолжить чтение

LLM-инференс в 20 раз быстрее, чем на GPU! Как подключить агента-кодера с CLINE и Cerebras

Хочешь, чтобы твой AI-ассистент для кодинга работал в 20 раз быстрее, чем на современных GPU? В этой статье покажу, как подключить Cerebras к CLINE — и получить мгновенные ответы от LLM. Почему Cerebras в 20 раз быстрее, чем GPUКомпания Cerebras использует Wafer-Scale Engine 3 (WSE-3) — самый большой и быстрый ИИ-чип в мире. Основные фишки:WSE-3: гигантский кремниевый чип, размером с CD-диск, 4 триллиона транзисторов и 900 000 ядер.44 ГБ встроенной SRAM на самом кристалле → почти нет обмена с внешней памятью.20 Пбайт/с

продолжить чтение

Свой LLM-агент на Typescript с использованием MCP

Вводные словаЕще в 2008 году, посмотрев фильм "Железный человек", я понял, что хочу сделать себе такого же виртуального помощника, как у главного героя был Джарвис — искуственный интеллект, с которым Тони Старк общался в формате обычной речи, а тот понимал его команды и послушно исполнял.

продолжить чтение

Как мы сделали AI-агента и пользуемся им на практике

Привет, Хабр! В последнем обновлении Explyt мы добавили AI-агента для написания кода. В этой статье расскажем, что он умеет и как мы сами его используем.

продолжить чтение

Cognition после покупки Windsurf предлагает сотрудникам выбор: уволиться с 9 зарплатами или 80-часовая рабочая неделя

Месяц назад ИИ-стартап Cognition приобрел интеллектуальную собственность, продукт и команду конкурента Windsurf. Сумма сделки не раскрывается, но детали стали известны на этой неделе благодаря расследованию The Information.После поглощения Windsurf компания Cognition уволила 30 человек, а оставшимся 200 сотрудникам поставила ультиматум до 10 августа:либо уходите с компенсацией в размере 9 месячных окладов,либо работаете по 80+ часов в неделю без выходных.

продолжить чтение

Все почти готово — осталось лишь чуть-чуть доделать

Эпохе LLM, обзоров от Gartner и вайбкодинга для MVP проектов от кодинг агентов посвящается. Вспомнил несколько случаев из своего опыта.В стародавние времена прошел я собеседование в одну ИТ компанию, которая делала информационную систему для поликлиник в нескольких регионах страны. Это место работы я даже не упоминал в своем резюме потом. Когда я спрашивал о текущем этапе проекта у директора, он "зуб давал", что там все почти готово, лишь осталось чуть-чуть доделать косметические правки за пару недель, а потом нанять команду, которую я буду возглавлять.

продолжить чтение

Карьера вайб-кодера — это тупик

Сразу расставлю все точки над «и»: LLM полезны. Вопрос не в том, могут ли LLM писать код, они на это способны. Вопрос в том, почему вайб-кодинг может оказаться вашей худшей карьерной инвестицией.

продолжить чтение

Как тестировать качество ответов RAG системы?

LLM могут принимать на вход все большее количество токенов, но большое количество переданных на вход токенов, включая промт, контекст и историю переписки, не равно качеству ответа.В идеале на вход LLM нужно передавать минимально достаточный набор данных для получения ожидаемого качественного ответа.Иными словами, если на вход LLM дан один конкретный вопрос, то есть шанс, близкий к 100%, что будет получен качественный ответ. И наоборот, чем больше данных (вопросов, контекста и прочего) на вход LLM вы даёте, тем больше вы понижаете качество ответа.

продолжить чтение

Rambler's Top100