Как мозг человека решает сложные задачи
Эволюция разных видов протекает своим путем, делая повороты в сторону той или иной физиологической особенности, тем самым выделяя ее на фоне других и развивая ее до максимальной эффективности. Кто-то прекрасно видит в темноте, кто-то способен находится подо водой длительное время, а кто-то получил самый сильный эволюционный дар. Дар, способный созидать и разрушать, понимать и осуждать, спорить, где спор уместен, и где ему места нет. Дар этот — интеллект, а получателем его является человек. Одним из проявлений интеллекта является умение решать задачи, от легких до сложных, задействующих не только накопленные знания и опыт, но и учитывающих новые условия. Определить, как именно человек решает сложные задачи довольно сложно, но ученым из Массачусетского технологического института это удалось. Какие методы были задействованы, что они показали, и какой же механизм использует мозг человека для решения сложных задач? Ответы на эти вопросы мы найдем в докладе ученых.
Главное по ML-DL, часть 2: Вопрос → Краткий ответ → Разбор → Пример кода. SVD-PCA. Bias-variance. Деревья. Бустинг
У каждого наступает момент, когда нужно быстро освежить в памяти огромный пласт информации по всему ML. Причины разные - подготовка к собеседованию, начало преподавания или просто найти вдохновение.Времени мало, объема много, цели амбициозные - нужно научиться легко и быстро объяснять, но так же не лишая полноты!💻 Обращу внимание, самый действенный способ разобраться и запомнить - это своими руками поисследовать задачу! Это самое важное, оно происходит в секции с кодом. Поэтому попробуйте сами решить предложенную задачку и придумать свою!
Останется ли это правдой завтра? Как проверка устойчивости фактов помогает LLM стать честнее и умнее
Привет, Хабр! Мы в команде «Вычислительная семантика» в AIRI сфокусированы на исследовании галлюцинаций и решении проблем доверительной генерации. Мы учимся находить галлюцинации и бороться с ними. Большие языковые модели (LLMs) вроде GPT-4 стали незаменимыми помощниками в повседневной жизни — от генерации текстов до поддержки в кодинге и ответов на вопросы. Однако у них есть ахиллесова пята: они часто галлюцинируют. В этом посте мы разберем нашу последнюю работу Will It Still Be True Tomorrow?, посвященную тому, как на надёжность моделей влияет феномен неизменного вопроса (evergreen question)
Выпустили первый российский тренажёр для ИИ-алгоритмов, делимся им с вами
Команда искусственного интеллекта Авито представила платформу BAT (Benchmark for Auto-bidding Task) — первый российский Open source-тренажёр, позволяющий тестировать и оптимизировать алгоритмы ставок в рекламных аукционах. Исследователи представили платформу на The ACM Web Conference 2025 в Австралии, это одно из главных международных событий в области машинного обучения. Тренажер уже доступен на GitHub.
Когда O(n) мешает отбирать резюме в Росатоме
Главная проблема поиска сотрудников — предвзятость. Порой кажется, что наше резюме подходит под свою роль на 100 %, а рекрутер отклоняет его. Проблема с противоположной стороны баррикад: рекрутер должен отсмотреть по 200, 300 и более резюме в день. По разным данным, на каждое уходит всего лишь 6–10 секунд. А что если можно решить эти две проблемы с помощью ML? Сделать модель, которая исключит любой байес и поможет рекрутеру объективно отбирать подходящих кандидатов (где «подходящесть» обусловлена красивой математикой!). Мы это сделали. Оказалось, что если вы хотите добиться непредвзятости, то вам придётся внести в систему предвзятость. Оксюморон в статистике! Что мы увидели: Женатые и замужние — в топе: пока вы не уходите глубоко в анализ, этот быстрый фактор повышает ранг. Чем точнее ваша модель, тем меньше его вес. Английский — плохо: знание английского почему-то работало как антипаттерн, снижая релевантность. ОГУРЕЦ: кто-то зачем-то написал это слово в резюме. Оно попало в словарь модели и получило большой вес. Иксель — люди пишут Excel как угодно, и само слово в правильном написании оказалось снижающим оценку. К резюме может быть приложено много мусора. Самый эпичный пример: авиабилет Москва — Челябинск вместо резюме. Но давайте начну с начала.
Как устроены LLM-агенты: архитектура, планирование и инструменты
Всем привет! С вами Кирилл Филипенко, сисадмин из Selectel, и сегодня мы погрузимся в тему LLM-агентов. Сейчас об этих самых «агентах» кричат буквально из каждого утюга, поэтому пришло время наконец-то разобраться, что это такое, как они работают и с чем их, собственно, едят. Прыгайте под кат, будет интересно!
Думает ли искусственный интеллект о коте Шрёдингера? История о том, как я внедрял в алгоритм идею параллельных вселенных
ВведениеВсё началось с простого вопроса: что, если научить искусственный интеллект не просто анализировать данные, а воспринимать каждое решение как один из множества возможных исходов? Не искать единственно верный ответ, а картографировать все возможные траектории, которые могли бы реализоваться в параллельных реальностях.Такой подход меняет саму логику анализа: вместо нахождения оптимума — построение карты событий. И если мы поручаем эту задачу модели, то стоит задуматься и о том, как сделать эту множественность доступной для человека — наглядной, понятной, функциональной.
Переменное подкрепление: как алгоритмы управляют нашим вниманием и что с этим делать
Наверняка вы когда-нибудь замечали, как трудно оторваться от залипания в шорт видео или от прокручивания алгоритмической ленты. И это не случайность, так работает система подкрепления нашего мозга.Предлагаю разобраться в её механиках, почему она настолько эффективна, как перестать быть ее жертвой и начать использовать в свою пользу. Поехали.Что вообще такое переменное подкрепление?Это механизм, при котором награда за выполненное действие приходит нерегулярно и непредсказуемо. Смоделируем, я решил публиковать видео на YouTube, первое набрало 500 просмотров, второе – 1 500, третье – 600, четвертое — вдруг 2 400.

