BrainTools - Методики для развития мозга - страница 76

От Telegram-бота к AI-агенту: как собрать своего «исполнителя задач» на Python в 2025-м

В 2023–2024 почти каждый второй pet-проект с LLM выглядел как чатик: ты спрашиваешь — модель отвечает, иногда с RAG, иногда без. В 2025-м тренд сместился: на рынке всё чаще говорят про AI-агентов — системы, которые не просто болтают, а сами инициируют действия, ходят в API, планируют шаги и живут в продакшене как часть инфраструктуры.

продолжить чтение

InfoFlood: как информационная перегрузка превращается в универсальный джейлбрейк для LLM

В июне этого года на arXiv вышла работа «InfoFlood: Jailbreaking Large Language Models with Information Overload» В исследовании авторы обнаружили новую уязвимость в системах безопасности больших языковых моделей: когда вредоносный запрос перегружается сложной лингвистической структурой, фильтры безопасности перестают его распознавать, хотя сама модель продолжает понимать суть и выдаёт вредоносный ответ.

продолжить чтение

Новый режим поиска Google объединяет AI Overviews и AI Mode в один клик

Google начала эксперимент, в рамках которого AI Overviews и AI Mode

продолжить чтение

Укрощаем зоопарк API: универсальный Python-клиент для GigaChat, YandexGPT и локальных моделей (v0.5.0)

Привет, Хабр! 👋Если вы пробовали внедрять российские LLM в свои проекты, то наверняка сталкивались с "зоопарком" API. У GigaChat — OAuth2 и свои эндпоинты, у YandexGPT — IAM-токены и gRPC/REST, у локальных моделей через Ollama — третий формат.В какой-то момент мне надоело писать бесконечные if provider == 'gigachat': ... elif provider == 'yandex': ..., и я решил создать универсальный слой абстракции.Так появился Multi-LLM Orchestrator — open-source библиотека, которая позволяет работать с разными LLM через единый интерфейс, поддерживает умный роутинг и автоматический fallback (переключение на другую модель при ошибке).

продолжить чтение

Magic Quadrant for Intelligent Document Processing Solutions

продолжить чтение

SFT vs RL: Сравнение методов настройки LLM для задач программирования и игровых сред

ВведениеВ современной разработке AI-агентов возникает необходимость адаптации больших языковых моделей (LLM) для решения специфических задач, требующих не просто генерации текста, а выполнения последовательных действий с рассуждениями. В этой статье мы рассмотрим и сравним два основных подхода к настройке моделей: Supervised Fine-Tuning (SFT) и Reinforcement Learning (RL), используя библиотеку TRL (Transformer Reinforcement Learning) от Hugging Face. Мы рассмотрим применение этих методов для двух категорий задач: Задачи программирования:Нахождение подходящего инпута для программы

продолжить чтение

OpenAI работает над интеграцией приложения «Здоровье» от Apple в ChatGPT

OpenAI планирует интегрировать Apple Health в чат-бот ChatGPT. В последней версии приложения для iPhone появилось изображение соответствующего значка, скрытое в коде. 

продолжить чтение

Миссия — вдохновиться и начать выступать на конференциях: как к этому прийти (и зачем вообще)

продолжить чтение

Как мы учим Яндекс Карты предупреждать о манёврах: без использования LLM, но с помощью водителей

продолжить чтение

Потребление электроэнергии дата-центрами и майнерами криптовалют в России к 2030 году достигнет 2%

К 2030 году потребление электроэнергии центрами обработки данных и майнерами криптовалют в России составит 2%, увеличившись в 2,5 раза, пишет «Коммерсантъ» со ссылкой на члена правления ВТБ Виталия Сергейчука. Он считает, что для компенсации нехватки электроэнергии потребуется финансирование возведения новых электромощностей, капитальные затраты на которые составят 6 трлн руб.

продолжить чтение

Rambler's Top100