BrainTools - Методики для развития мозга - страница 373

Как научно и доказательно разово повысить свою продуктивность? Матом

Это просто, бесплатно, и результативно. Если ищете быстрый способ разгрузиться и преодолеть преграду, попробуйте двигаться к цели и материться. Это говорю не я, а результаты нового исследования. Очищение разума от неуверенности, отсечение отвлекающих факторов и полная сфокусированность на цели. Новое исследование доказало эффект, который ругательства оказывают в моменте.

продолжить чтение

Бдительное око нормоконтроля: как мы применили LLM для анализа договоров

Юристы крупных корпораций ежедневно обрабатывают примерно 30-50 договоров. Каждый документ нужно проверить на соответствие внутренним правилам компании, выявить потенциальные риски и убедиться, что все условия соблюдены и все необходимые пункты присутствуют.

продолжить чтение

*Meta запускает PE-AV — аудио-визуальный энкодер для мультимодального ИИ

продолжить чтение

Исследователи из MIT и IBM предложили новый подход к расширению возможностей LLM

продолжить чтение

Как мы сделали альтернативную систему метчинга товаров в X5 Digital: опыт, грабли и результат

Привет, Хабр! Меня всё ещё зовут Данила Федюкин, и я продолжаю быть тимлидом в X5 Digital. Руковожу командой, которая занимается метчингом. В прошлый раз я рассказывал, как мы перешли на собственную систему рекомендаций, а в этот раз о том, как делаем то же самое, но с метчингом товаров.X5 Digital – один из цифровых бизнесов Х5. Мы работаем в режиме Highload с RPS в 7500 и отвечаем за всю онлайн-доставку в более чем 1000 городах и населённых пунктах России.Этот канал постоянно растёт. В 2024 году покупатели Х5 совершили свыше 119,5 млн заказов продуктов на дом.

продолжить чтение

Знай своих потребителей в лицо: бизнес-вызовы текущего момента в очень простой двоичной логике (специально для ХАБРа)

ЗРИ В КОРЕНЬ:             Стратегия развития Прикладного промышленного мира сегодня – это задача преобразования «меняйся или проиграешь»! В качестве введения

продолжить чтение

Prompt Caching: токены LLM в 10 раз дешевле — но за счёт чего?

Команда AI for Devs подготовила перевод и разбор статьи о Prompt Caching — технологии, которая делает входные токены LLM в разы дешевле и заметно снижает задержки. Внутри — подробное объяснение, что именно кэшируют OpenAI и Anthropic, как KV-кэш связан с attention в трансформерах и почему это не имеет ничего общего с повторным использованием ответов.На момент, когда я пишу эту статью, закэшированные входные токены стоят в долларах за токен примерно в 10 раз дешевле обычных входных токенов — как в API OpenAI, так и Anthropic.

продолжить чтение

ИИ-ассистенты как новый вектор риска: вызовы для корпоративной безопасности в эпоху генеративных технологий

Актуальность проблемыРазвитие искусственного интеллекта стало одним из ключевых факторов цифровой трансформации бизнеса. Еще несколько лет назад технологии машинного обучения применялись преимущественно в исследовательской и аналитической среде, однако с появлением генеративных языковых моделей (LLM) ситуация изменилась кардинально.

продолжить чтение

CATL внедрила человекоподобных роботов на линии сборки тяговых батарей

Китайская Contemporary Amperex Technology (CATL) начала масштабное внедрение человекоподобных роботов стартапа Spirit AI на линиях сборки тяговых аккумуляторов в городе Лоян, провинция Хэнань. Роботы выполняют сложные задачи со скоростью работы квалифицированных специалистов, отметили в CATL.

продолжить чтение

Atlas от OpenAI получает мультипрофили и обновления для рабочих пространств

продолжить чтение

Rambler's Top100