llm. - страница 114

llm.

ИИ на подъёме: восхождение к пику ожиданий и первые уроки в реальном бизнесе

Где мы все? Судя по классическому циклу зрелости, Large Language Models (LLM) уверенно маршируют к вершине «Пика завышенных ожиданий». Энтузиазм бьёт ключом: каждый день – новые анонсы и инвестиции. Как руководитель отдела инновационных проектов в «Первой грузовой компании», я вижу этот ажиотаж и сам погружен в изучение потенциала LLM для нашей отрасли. Иллюзия всесильности ИИ сейчас сильна как никогда. Мы сейчас явно находимся на пике завышенных ожиданий.

продолжить чтение

Пишем агента на Kotlin: KOSMOS

Интернет завален реализациями на Питоне, но иногда удобнее разбираться с технологиями на своём основном языке. Для меня это Kotlin.Если вы программист, наверняка к вам приходят знакомые и предлагают писать агентов. Реализовав оного самостоятельно, вы поймете, что задача из себя представляет.Статья обещает соблюдать два принципа, упрощающих восприятие:Движение от частного к общему, потому что легче воспринимать примеры, чем абстракцию.Быстрая обратная связь, как с REPL.

продолжить чтение

За неделю от ночных кошмаров до спокойного сна: как я автоматизировал защиту от AI-хакеров

Никто не любит быть тем парнем, который говорит "а давайте еще и защиту поставим". Особенно когда речь идет о блестящем новом AI-продукте, который должен был запуститься "еще вчера". Но когда твой корпоративный чат-бот начинает выдавать системные промпты направо и налево, а в 2 ночи тебе в Telegram прилетают сообщения "СРОЧНО! Хакеры взломали бота!" — понимаешь, что без брони в бой идти нельзя.

продолжить чтение

Alibaba Cloud и HP объединяют усилия для развития ИИ-компьютеров в Китае

В рамках партнёрства большая языковая модель Alibaba с открытым исходным кодом Qwen будет интегрирована в умного помощника HP «Сяовей Хуэй» для улучшения работы с ИИ на ПК для пользователей HP. Помощник на базе Qwen будет обладать расширенными возможностями, включая автоматическое составление документов, интеллектуальное обобщение заметок с совещаний и многое другое.

продолжить чтение

MLDR. Как не стать героем инцидента будущего. Часть 1

Всем привет! Я Александр Лебедев, ml инженер в команде, занимающейся MlSecOps проектами в Innostage. Мы разрабатываем решения для безопасности моделей машинного обучения и внедрением ml в системы информационной безопасности. И сегодня мы поговорим о том, как не взломать искусственный интеллект. 

продолжить чтение

LiberalMind 1.5 новая LLM из России

С чего все начиналось?

продолжить чтение

AI-агенты в деле: 15 рабочих примеров для роста вашего бизнеса

AI-агенты радикально меняют подход технических команд к автоматизации, переходя от традиционных, основанных на правилах workflow к более динамичным, интеллектуальным системам, способным адаптироваться и принимать решения в реальном времени.В отличие от статической автоматизации, основанной на предопределенных триггерах и действиях, AI-агенты используют большие языковые модели (LLM) для обработки сложных данных, понимания контекста и реагирования на непредсказуемые сценарии.

продолжить чтение

OpenAI изнутри: разработчик рассказывает об устройстве миллиардной ИИ-компании

Год в OpenAI - рассказ разработчика, недавно уволившегося из компании. В статье о культуре компании (снизу вверх, отсутствие планов и общение только в Slack), на чём держится их техстек (Azure, monorepo, Python) и как создавался Codex   агент кодирования OpenAI (8 инженеров  за 7 недель, релизы до 4 утра).  Много интересных подробностей и историй.   Я ушёл из OpenAI три недели назад, проработав там с мая 2024 года. Хочу поделиться впечатлениями, потому что вокруг OpenAI много шума и домыслов, но мало рассказов от тех, кто там реально работал.

продолжить чтение

Полноценное RAG-приложение на Go — безумие?

ПредисловиеПрежде всего хочу сказать, что я не являюсь никаким специалистом, даже джуновского лвла, просто безработный студент, пишущий на коленке свои пет-проекты. И код, и тем более архитектура далеки от идеала. Однако, я думаю, некоторые моменты, о которых я буду рассказывать далее в статье, могут быть интересны полноценным разработчикам как бэкенда, так и ИИ-агентов. RAG и Go

продолжить чтение

Как тестировать качество ответов RAG системы?

LLM могут принимать на вход все большее количество токенов, но большое количество переданных на вход токенов, включая промт, контекст и историю переписки, не равно качеству ответа.В идеале на вход LLM нужно передавать минимально достаточный набор данных для получения ожидаемого качественного ответа.Иными словами, если на вход LLM дан один конкретный вопрос, то есть шанс, близкий к 100%, что будет получен качественный ответ. И наоборот, чем больше данных (вопросов, контекста и прочего) на вход LLM вы даёте, тем больше вы понижаете качество ответа.

продолжить чтение

Rambler's Top100