Крупная конференция по ИИ оказалась завалена рецензиями, написанными ИИ. ICLR.. ICLR. искусственный интеллект.. ICLR. искусственный интеллект. Машинное обучение.
Крупная конференция по ИИ оказалась завалена рецензиями, написанными ИИ - 1

Одна из трех главных конференций по машинному обучению — ICLR-2026 — внезапно превратилась в живой эксперимент по тому, что будет, если в научное рецензирование массово пустить нейросети. Анализ Pangram Labs показал, что около 21% рецензий на статьи были полностью сгенерированы ИИ, а больше половины отзывов содержат явные следы его участия. На этом фоне вскрылся еще один удар по доверию к процессу: из-за ошибки на платформе OpenReview, через которую идет весь цикл подачи и обсуждения статей, на время стало возможно посмотреть настоящие имена рецензентов, фактически превратив двойное слепое рецензирование в открытую партию.

Pangram скачала все 76 тыс. отзывов ICLR-2026 и пропустила их через свою модель EditLens, которая умеет различать пять степеней участия ИИ — от легкого редактирования до полного автоматического текста. По оценкам компании, 21% рецензий (около 15,9 тыс.) оказались целиком машинными, а более половины — хотя бы частично “подчищены” нейросетью. Чуть лучше картина с самими статьями: подавляющее большинство по-прежнему написано людьми, но обнаружено почти двести полностью ИИ-публикаций и около 9% работ, где больше половины текста было сгенерировано. Хуже всего то, что между этими цифрами есть закономерности: чем больше ИИ в тексте статьи, тем ниже оценки, а вот чем больше ИИ в рецензии, тем мягче тон и тем выше итоговый балл, который получает работа.

Параллельно в китайском ИИ-сообществе разгорелся скандал: выяснилось, что на OpenReview достаточно было подставить идентификатор статьи и номер рецензента в специальный адрес, чтобы увидеть его имя и оценку. Журналы и чаты заполнили истории о том, как “единицу” неожиданно поставил знакомый коллега или конкурирующая группа, а также скриншоты с разоблачениями. Позже стало ясно, что уязвимость затрагивает не только ICLR-2026, но и материалы других топ-конференций. На практике это означало, что критиковать чужую работу анонимно было уже нельзя — и сам принцип независимого, “слепого” рецензирования оказался под угрозой.

В ответ ICLR пригрозила долгосрочной блокировкой всем, кто будет использовать или распространять утекшие данные о рецензентах, а OpenReview оперативно закрыла дыру и выпустила официальное заявление. Чуть раньше программные директора конференции уже опубликовали отдельную политику по применению больших языковых моделей: любое использование ИИ и в статьях, и в рецензиях должно раскрываться, а за «халтурные» ИИ-тексты с вымышленными фактами и ссылками предусмотрены санкции против авторов и рецензентов. В свежем обращении они обещают опираться на детекторы ИИ только как на инструмент предварительного отбора: окончательные решения, по их словам, остаются за людьми и требуют “конкретных доказательств нарушений”, прежде чем кого-то накажут.

История с ICLR-2026 показывает, что нынешняя архитектура научного рецензирования просто не успевает за эпохой нейросетей. Система создавалась под относительно небольшой поток статей и полностью человеческие тексты, а в реальности рецензентов не хватает, в поток подач просачиваются низкокачественные ИИ-работы, а часть перегруженных экспертов начинает перекладывать собственное суждение на модели. Кейс ICLR-2026 выглядит болезненным, но полезным стресс-тестом: он буквально заставляет сообщество ответить на вопрос, какой уровень участия искусственного интеллекта мы готовы допустить в экспертизе исследований по искусственному интеллекту.

P.S. Поддержать меня можно подпиской на канал “сбежавшая нейросеть“, где я рассказываю про ИИ с творческой стороны.

Автор: runaway_llm

Источник

Rambler's Top100