Nvidia пыталась получить книги у пиратов для обучения ИИ
В обновленных материалах коллективного иска против Nvidia появились новые детали, которые удивили экспертов. Оказывается, компания напрямую связывалась с крупнейшей теневой библиотекой Anna’s Archive, чтобы получить приоритетный доступ к
Сублиминальное обучение и инерция весов: Почему нейросети помнят то, что должны были забыть
В предыдущей статье я рассматривал феномен сублиминального обучения, но вопросов было больше, чем ответов. Пришло время разобрать его подробнее. Эксперименты и код ниже.В задачах AI Alignment и безопасности LLM остается актуальным вопрос: гарантирует ли дообучение (fine-tuning) или обучение с подкреплением (RLHF) удаление нежелательной информации?
Почему я удалил ChatGPT после трёх лет использования
Реклама - это лишь симптом более серьёзной проблемыSource: Alex Shuper, Unsplash I. Реклама в ChatGPT — это переход красной чертыНа этой неделе OpenAI объявила, что начнёт тестировать рекламу в бесплатной версии ChatGPT
RLM-Toolkit: Полная замена LangChain? FAQ часть 2
Продолжение статьи о RLM. Первая часть: Почему ваш LLM-агент забывает цельО чём эта статья?В первой части я разобрал 10 проблем LLM-приложений и как RLM их решает. Но остался очевидный вопрос:"Чем это отличается от LangChain? Зачем ещё один фреймворк?"Короткий ответ: RLM-Toolkit — это пока не полная замена LangChain. Не весь запланированный функционал реализован, но в своей нише (огромный контекст, H-MEM память, безопасность, InfiniRetri, самоулучшающиеся агенты) — уже конкурент и опережает в вопросах развития под современные задачи.
Fine-tuning Qwen-8B под проприетарный синтаксис (CADINP) на одной RTX 3090: опыт инженера-конструктора
Проблема: Галлюцинации в инженерных расчетахЯ занимаюсь расчетами строительных конструкций в комплексе SOFiSTiK. Основной инструмент взаимодействия с ним — внутренний язык CADINP. Это мощный, но старый процедурный язык с жестким синтаксисом: строгая последовательность модулей (AQUA -> SOFIMSHC -> ASE), специфичные команды фиксации узлов и неявные зависимости.SOTA-модели (ChatGPT-4o, Claude 3.5 Sonnet) справляются с CADINP посредственно. Основные проблемы при генерации кода general-purpose моделями:Синтаксический шум: Выдумывание несуществующих аргументов функций.Потеря контекста:
Apple выбирает Gemini для новой Siri, xAI поднимает $20 млрд, AI добирался до медкарт: главное новости AI с начала года
OpenAI запустила ChatGPT Здоровье: отдельный раздел с подключением к медицинским картам и health-приложениям, 230 млн человек еженедельно спрашивают ChatGPT о здоровье — waitlist открыт.Anthropic запустила Cowork: агентный режим Claude с доступом к локальным файлам — сортировка, редактирование, создание документов с очередью задач, пока только Claude Max на macOS.Google представила Personal Intelligence: Gemini подключается к Gmail, Photos и YouTube для персонализированных ответов — бета в США для AI Pro и AI Ultra.Apple переходит на Gemini:

