llm. - страница 5

llm.

Как мы строили своего AI-агента для генерации тестовой документации — опыт QA-команды мобильных секретарей

Привет, Хабр! На связи QA-команда мобильных секретарей — Настя и Ксюша.

продолжить чтение

Как научить AI-агента работать «как у нас принято»: RAG для передачи знаний

Новый сотрудник приходит в компанию. Первый месяц смотрит, как работают другие. Задаёт вопросы. Впитывает неписаные правила.«К Петрову лучше не ходить в пятницу после обеда». «Если клиент из Газпрома — сначала согласуй с Мариной». «Этот шаблон договора устарел, бери новый из папки на диске».Через месяц-два новичок работает «как принято». Без инструкций — просто потому что видел, как это делают другие.AI-агент так не умеет. Всё, что сотрудники «знают на автомате», для него не существует. Пока не будет явно описано и загружено в систему.Проблема tacit knowledge

продолжить чтение

Как спасти ИИ в эпоху, когда ИИ убивает сам себя?

«Все крупные корпорации и социальные сети уже давно хотят помечать контент, созданный искусственным интеллектом, отдельным специальным признаком. Безусловно, можно говорить о том, что это делается ради заботы о пользователях — чтобы люди не сидели бесконечно и не потребляли абсолютно одинаковый контент. Но у этой инициативы есть и совершенно эгоистичные цели: платформам жизненно необходимо физически отделить контент, созданный живыми людьми, от материалов, сгенерированных нейросетями».Давайте детальнее копнем в проблему

продолжить чтение

Омни‑модели, синтетика и LLM‑агенты: встречаемся на Saturday ML Party в Петербурге

Saturday ML Party — это наш формат встреч, где мы обсуждаем с сообществом тренды индустрии, новые подходы и реальные вызовы в неформальной обстановке.

продолжить чтение

LLM Inside: выжимаем максимум из Decoder Attention на GPU

продолжить чтение

Почему мы ненавидим, но так любим нейросети

Да, я перегнул с заголовком. Не все мы, слава богу, вайбкодеры/вайбкопирайтеры и не все безума от нейронок. Но потерпите минуту.ДисклеймерЭта статья существует в двух экземплярах и будет опубликована на Хабре.Одна написана полностью под ключ Claude 4.6 — с минимальными правками (может получиться даже без них) и одним максимально подробным промптом. Основой для промпта послужит моя заметка:Идея для статьи на хабре — исследовать тему почему нас раздражает текст сгенерированный нейросетями в блогах/статусах/рекламных текстах/статьях и высказаться на этот счет.

продолжить чтение

Как уместить опыт в одностраничный PDF

И такое бываетЧто-то пошло не так

продолжить чтение

Эволюция Telegram-бота на локальной LLM от болтуна до мини-игр, генерации фото, возможности выбора модели

Хочу поделиться историей создания Telegram-бота, работающего полностью на локальной ИИ. В качестве языковой основы используется Ollama, а для генерации изображений — AUTOMATIC1111. Весь код написан на Python с библиотекой python-telegram-bot. Почему выбрал именно Ollama? Потому что она бесплатна, есть множество открытых моделей и её очень просто развернуть в своем проекте. Если брать облачные решения от других компаний, например ChatGPT, то тут можно уперется в то, что за них нужно платить. Модели я подбирал под свой компик: 5070 и 32 гб оперативы. Сервера своего нету, поэтому бот работает только когда я дома.

продолжить чтение

Как Red Teaming и человеческий креатив позволяют оценить риски внедрения LLM в бизнес-процессы

В кибербезопасности существует подход под названием Red Teaming — когда одна команда имитирует атакующего, а другая защищает систему. С появлением больших языковых моделей тот же принцип стал применяться к ИИ. Только теперь атакуют не серверы и базы данных, а сами LLM-агенты — системы, которые умеют рассуждать, выполнять команды и взаимодействовать с внешними инструментами. Red Team здесь ищет способы выявить уязвимости и подсветить риски модели, а Blue Team — защитить её. Именно на стыке этих подходов возникла новая область — Red Teaming LLM-агентов, где тестирование превращается в исследование границ самого искусственного интеллекта.

продолжить чтение

Что делать, когда AI-агент «упал»: архитектура отказоустойчивости

Понедельник, 9 утра. Начало рабочей недели.API OpenAI лёг. Или лимиты закончились. Или интернет в офисе пропал.Что делает AI-агент? Ничего. А процесс, который он обслуживал, встаёт. Заявки копятся, договоры не согласовываются, клиенты ждут.И хуже всего — люди не знают, что агент не работает. Думают, что всё идёт по плану.Реальные сценарии сбоевЗа год работы с AI-агентами в проде я собрал коллекцию того, что ломается.Сбои провайдера LLM. OpenAI: 2-3 крупных сбоя в год плюс периодические замедления. Anthropic: реже, но бывает. GigaChat: стабильнее, но тоже не без проблем.Сетевые проблемы.

продолжить чтение

1...345678...2030...187
Rambler's Top100