Сэм Альтман собрал больше денег, чем ВВП 140 стран. Их хватило на два года. Что будет дальше?
OpenAI недавно объявила о привлечении 110 миллиардов долларов
Разработчик в поиске вакансии получил доступ к ИИ-эйчару и попросил его самого ответить на вопросы за человека
По информации
Как Red Teaming и человеческий креатив позволяют оценить риски внедрения LLM в бизнес-процессы
В кибербезопасности существует подход под названием Red Teaming — когда одна команда имитирует атакующего, а другая защищает систему. С появлением больших языковых моделей тот же принцип стал применяться к ИИ. Только теперь атакуют не серверы и базы данных, а сами LLM-агенты — системы, которые умеют рассуждать, выполнять команды и взаимодействовать с внешними инструментами. Red Team здесь ищет способы выявить уязвимости и подсветить риски модели, а Blue Team — защитить её. Именно на стыке этих подходов возникла новая область — Red Teaming LLM-агентов, где тестирование превращается в исследование границ самого искусственного интеллекта.
Наш «домашний» НИИ обошёл DINOv2, ViT и десятки ML‑моделей в сегментации видео
Мы открыли и разрабатываем новый способ обработки информации - TAPe (Theory of Active Perception, Теория активного восприятия). Работаем над ней давно, результаты мягко говоря впечатляющие, постепенно начинаем ими делиться. Немного писали о Теории на Хабре здесь. Исторически мы начали именно с обработки видео (когда-нибудь об этом расскажем).
Граничные вычисления в коммерческой логистике
Датчик на ДВСПривет, Хабр! Мы — братья Лев и Марк Григорьевы. В рамках нашего R&D-проекта мы разрабатываем бортовую систему предиктивной диагностики для тяжелого коммерческого транспорта (тягачи, спецтехника).
Современные LLM – это больше, чем просто предсказание слов
«Эта модель лучше шутит, а та лучше пишет код» — отличный критерий выбора, если вы просто переписываетесь с чатиком. Но как только LLM оказывается внутри продукта, нас перестаёт интересовать юмор и начинает волновать архитектура: encoder–decoder против decoder‑only, мультимодальные энкодеры, test‑time reasoning, скрытые цепочки рассуждений. В этом посте попробуем перестать выбирать между логотипами и посмотреть на языковые модели как на инженерные конструкции с понятными trade‑off’ами.В первоначальной архитектуре трансформера кодировщик (encoder) и декодировщик
ИИ-агент сказал «сделано». Но сделал ли он на самом деле?
Deterministic Commitment Layer: архитектура верификации агентных систем и первый десктопный инструмент для её практического применения«Ты веришь агенту на слово. Но у агента нет слов — только токены» Проблема, о которой мы знаем, но делаем вид, что не замечаемНа прошлой неделе Хабр опубликовал материал о том, как компании платят до 300 000 рублей в месяц за «скрытый аутсорс» задач в ChatGPT. История получила резонанс — но обсуждение ушло не туда. Говорили о доверии, об этике, о трудовом договоре.

