llm. - страница 15

llm.

Пять мыслей о возможностях и ограничениях LLM

О фундаментальных ограничениях больших языковых моделей одни говорят, что трансформеры, обученные предсказывать следующий токен (NTP), - тупиковый путь для создания интеллектуальных машин: язык слишком беден, это лишь плоская проекция реального мира, машины ничего не понимают. Другие говорят , что та же задача, повторённая триллионы раз, может вызвать появление сложного поведения примерно как простой механизм эволюции породил всё многообразие жизни.Ниже представлены наблюдения по этим вопросах. | Если вам интересна тема AI-агентов и внедрения нейросетей, заглядывайте в мой Telegram-канал 

продолжить чтение

Контроль вместо экспериментов: собрали платформу для управления LLM в бизнесе

Мы запустили red_mad_router

продолжить чтение

Медленное мышление для быстрых машин: архитектура рефлексирующего ИИ-агента нового поколения

продолжить чтение

Дорогой защитный аппарат: тревога, одиночество и статусная гонка как цена «я»

Знакомая паникаИногда в ленте появляется тред: «ИИ убивает человеческое в человеке». Дальше — кто во что горазд: либо плач об утраченной глубине, либо алармизм про когнитивную деградацию, либо философский ужас перед расчеловечиванием. Структура одна и та же: есть «мы», у нас есть «человеческое», оно ценно, ИИ это «человеческое» отнимает.Вопрос, который в этих тредах не задают: что именно отнимает — и с чего мы взяли, что это «наше» в каком-либо устойчивом смысле слова.

продолжить чтение

ИИ для работы с документами: как меняются PDF-редакторы и куда все это движется

Привет, Хабр! Меня зовут Алена Ивличева, я менеджер продукта в Content AI. Мы делаем ContentReader PDF — редактор PDF, в который теперь встроен ИИ-ассистент. Сегодня я хочу поговорить о том, куда движутся технологии, как искусственный интеллект меняет наше привычное взаимодействие с документами и что все это значит для наших продуктов.На рынке сейчас огромное количество трендов, но я выделю те, что реально меняют правила игры. 1. PDF-редактор становится частью бизнес-процессаРаньше PDF-редактор был просто утилитой, чтобы открыть документ, посмотреть, поправить, сохранить и закрыть.

продолжить чтение

Как закешировать интеллект: LLM Cache в поиске Яндекс Лавки

продолжить чтение

В Zig обнаружили одну из самых строгих политик против ИИ

Выяснилось, что в Zig действует одна из самых строгих политик против LLM среди всех крупных проектов с открытым исходным кодом.

продолжить чтение

Из backlog в ТЗ: как мы с помощью AI превращаем клиентские запросы в исполнимые постановки на доработку системы

Мы в «Первой Форме» развиваем BPM-систему на базе low-code для автоматизации бизнес-процессов: документооборота, CRM, HR, PM и Service Desk. Мы работаем с B2B-клиентами, у которых платформа живет внутри реальных процессов компании: согласований, заявок, договоров, кадровых маршрутов, сервисных сценариев и внутренних регламентов. В такой модели у нас постоянно появляется поток запросов на доработку системы.

продолжить чтение

Почему ваша LLM-платформа — следующая цель: аудит безопасности AI-сервиса изнутри

Disclaimer: Всё описанное — результат санкционированного аудита безопасности по договору. Уязвимости ответственно раскрыты, ключи ротированы, домены и IP изменены. Статья — для понимания, не для воспроизведения.Мы искали уязвимости в RAG-платформе с десятками тысяч пользователей — а нашли доступ ко всей инфраструктуре и API-ключам с бюджетом в сотни тысяч долларов. Две недели мы строили сложные цепочки: SSRF через LangChain, инъекции в промпты, HTTP smuggling, CVE в десериализации. Ни одна не дала результата. А потом мы сделали один curl к открытому порту — и получили все ключи за 5 минут.

продолжить чтение

Пять документов ломают ваш RAG: где реальная уязвимость и что с ней делать

Материал подготовлен для будущих студентов курс "NLP / Natural Language Processing".У RAG-систем есть фундаментальный парадокс доверия: пользовательские запросы считаются недоверенным вводом, а извлеченный из базы знаний контекст по умолчанию считается доверенным, хотя и то и другое попадает в один и тот же промпт. Согласно исследованию, опубликованному на USENIX Security 2025 (или см. github репо

продолжить чтение

1...10...131415161718...3040...236