Хохма от Anthropic, или не используйте ИИ, чтобы попасть в ИИ‑компанию. anthropic.. anthropic. hr.. anthropic. hr. hr-процесс.. anthropic. hr. hr-процесс. llm.. anthropic. hr. hr-процесс. llm. автоматизация.. anthropic. hr. hr-процесс. llm. автоматизация. искусственный интеллект.

В феврале 2025 года по техносфере разошлась маленькая, почти анекдотичная новость: Anthropic, компания, стоящая за Claude, просила кандидатов не использовать ИИ‑ассистентов при подаче заявки на работу. Не только инженеров. Маркетинг, финансы, продажи, коммуникации — почти все роли.

Ирония оказалась слишком удобной, чтобы пройти мимо. Компания делает один из лучших инструментов для письма и просит людей не пользоваться им, когда от них как раз требуется написать о себе. Но если остановиться на уровне «ха‑ха, ИИ‑компания запретила ИИ», мы пропустим главное. Это не история о лицемерии одной компании. Это история о том, что рынок найма сломал один из своих базовых механизмов: отклик перестал быть надежным сигналом.

Что произошло

Исходную формулировку заметила 404 Media в статье AI Company Asks Job Applicants Not to Use AI in Job Applications. В формах Anthropic был пункт «AI Policy for Application»: компания просила не использовать ИИ‑ассистентов при подаче заявки, потому что хотела увидеть личный интерес кандидата и его коммуникационные навыки без посредника.

На это первым обратил внимание Саймон Уиллисон. 404 Media добавила важную деталь: такой пункт был почти во всех тогдашних вакансиях Anthropic, примерно в 150 ролях: от инженерии до продаж и финансов.

Звучит смешно, но сама постановка вопроса понятна. Если кандидат присылает текст, написанный Claude или ChatGPT, работодатель уже не понимает, что именно он оценивает:

  • опыт кандидата;

  • способность кандидата ясно формулировать мысли;

  • умение кандидата пользоваться ИИ;

  • качество шаблона, который модель сгенерировала по вакансии;

  • или просто аккуратный синтетический текст, похожий на сотни других.

Для компании, которая нанимает людей в область ИИ, это особенно болезненно. Там нужен не человек, который нажал «улучши мое сопроводительное письмо», а человек, у которого есть собственная позиция, вкус, опыт, способность спорить с моделью и проверять ее.

Anthropic сама смягчила позицию

У этой истории есть важное продолжение, которое часто теряется в пересказах. Сейчас у Anthropic уже не просто «не используйте ИИ». В официальном гайде How to collaborate with Claude during our hiring process, обновленном 10 июля 2025 года, позиция стала тоньше.

Кандидатам предлагают писать первый черновик самим, а потом использовать Claude для улучшения формулировок, подготовки к интервью и исследования компании. При этом домашние тестовые задания нужно делать без Claude, если в задании явно не сказано обратное. Интервью в реальном времени тоже должны проходить без ИИ‑помощи, если Anthropic отдельно не разрешила ее использовать.

Это уже не запрет на инструмент. Это попытка провести границу между помощью и подменой. Можно попросить модель подсказать, какие эпизоды из опыта лучше подсветить. Нельзя просить ее придумать вашу мотивацию, ваш опыт и ваши ответы.

Самое интересное в том же документе — раздел о том, как Anthropic сама использует Claude в найме. Компания пишет, что применяет Claude для описаний вакансий, вопросов для интервью, коммуникаций с кандидатами, аналитики найма, транскрибации интервью и поиска кандидатов. При этом утверждает, что не использует данные кандидатов для обучения Claude и не дает Claude принимать решения о найме.

То есть новая позиция Anthropic примерно такая: ИИ в найме неизбежен, но он должен быть видимым, ограниченным и не должен притворяться человеком.

Почему резюме и сопроводительное письмо стали плохим сигналом

Раньше отклик на вакансию был дорогим действием. Нужно было прочитать описание роли, поправить резюме, написать письмо, объяснить, почему вы подходите. Это не гарантировало качество кандидата, но хотя бы показывало минимальное усилие и понимание контекста.

Теперь это действие резко подешевело. ИИ может за минуту:

  • переписать резюме под конкретную вакансию;

  • добавить нужные ключевые слова;

  • сделать сопроводительное письмо «энергичным, но профессиональным»;

  • сгенерировать ответы на отборочные вопросы;

  • подготовить несколько вариантов под разные компании.

Само по себе это не зло. Плохо написанное резюме не должно ломать карьеру хорошему инженеру, особенно если человек пишет не на родном языке. Но когда стоимость отклика падает почти до нуля, рынок быстро превращается в гонку объемов.

Semafor в 2025 году писал, что заявки через LinkedIn выросли на 45%, а платформа фиксировала около 11 000 заявок в минуту. WIRED еще в 2024 году описывал, как рекрутеры уходят в более «аналоговые» способы отбора: одна вакансия data scientist в американской медтех‑компании собрала более 3000 откликов, и часть кандидатов, прошедших письменное задание, потом не могла объяснить свои решения на интервью.

Так возникает петля:

  1. Кандидаты шлют больше откликов, потому что ИИ удешевил подачу.

  2. Работодатели тонут в потоке похожих резюме.

  3. Работодатели ставят больше фильтров, тестов и автоматизации.

  4. Кандидаты еще активнее используют ИИ, чтобы проходить фильтры.

  5. Доверия становится меньше с обеих сторон.

Это не «кандидаты испортились» и не «рекрутеры обнаглели». Это нормальная реакция людей на систему, где внимание стало самым дефицитным ресурсом.

Другая сторона тоже не белая и пушистая

Было бы удобно сказать: кандидаты используют ИИ, значит, они виноваты. Но работодатели пришли туда раньше.

LinkedIn, Indeed, Greenhouse, Workday и другие HR‑инструменты давно автоматизируют части воронки: поиск кандидатов, ранжирование, парсинг резюме, подсказки рекрутерам, письма, тесты, а иногда и анализ видеоинтервью. WIRED в той же статье пишет, что LinkedIn и Indeed встраивают генеративный ИИ и для соискателей, и для рекрутеров. LinkedIn, например, давал рекрутерам ИИ‑инструменты для поиска кандидатов и генерации сообщений.

С точки зрения компании это рационально: входящий поток большой, людей в команде найма мало, бизнес хочет быстрее. Но со стороны кандидата это выглядит иначе: компания может использовать ИИ, чтобы фильтровать меня, а я не могу использовать ИИ, чтобы аккуратно объяснить, почему я подхожу?

Отсюда и главный конфликт. Запрет «не используйте ИИ» воспринимается честно только тогда, когда работодатель сам прозрачно говорит:

  • где в процессе используется ИИ;

  • какие данные кандидата туда попадают;

  • принимает ли ИИ решения или только помогает людям;

  • можно ли запросить альтернативный способ оценки;

  • что считается допустимой помощью кандидату.

Anthropic в новой версии правил хотя бы пытается это проговорить. Многие компании пока нет.

Детекторы ИИ не решают проблему

Самый плохой ответ на ИИ‑резюме — купить «детектор ИИ‑текста» и начать банить кандидатов по проценту вероятности.

У этой идеи две проблемы. Первая — техническая. OpenAI еще в 2023 году закрыла собственный классификатор ИИ‑текста, указав на низкую точность. Исследователи Stanford HAI показывали, что GPT‑детекторы могут быть предвзяты против людей, для которых английский не родной: в одном эксперименте больше половины TOEFL‑эссе не‑носителей английского были ошибочно классифицированы как созданные ИИ.

Вторая проблема — продуктовая. Даже идеальный детектор отвечает не на тот вопрос. Работодателю важно не «использовал ли кандидат ИИ», а «может ли кандидат выполнять работу, понимать последствия решений, объяснять ход мысли и отвечать за результат».

Если кандидат попросил Claude сделать письмо менее корявым, это не равно мошенничеству. Если кандидат сгенерировал выдуманный опыт, подделал тестовое или читает ответы с экрана на интервью — это уже другая история. Детектор текста плохо различает эти случаи, а иногда вообще не различает.

Где начинается реальный риск

Большая часть ИИ‑откликов — просто шум. Неприятный, дорогой для обработки, но не катастрофический. Реальный риск начинается там, где ИИ помогает не полировать форму, а подменять личность или компетенцию.

Gartner в 2025 году писал, что только 26% кандидатов доверяют ИИ как справедливому оценщику. Там же есть более тревожная часть: 39% кандидатов использовали ИИ в процессе подачи заявки, 29% — для ответов на вопросы в ассессментах, 6% признались в мошенничестве на интервью, а Gartner прогнозирует, что к 2028 году каждый четвертый профиль кандидата в мире может быть фейковым.

Это уже не история про красивое резюме. Речь заходит про личность кандидата, что выливается в вопросы безопасности и доступа к внутренним системам.

FBI отдельно предупреждало о схеме с северокорейскими удаленными IT‑работниками: тысячи специалистов под чужими или вымышленными личностями пытаются устраиваться в компании по всему миру, чтобы зарабатывать деньги для режима и получать доступ к инфраструктуре. DOJ в 2025 году тоже описывал схемы, где используются украденные личности, фальшивые сайты, аккаунты на сайтах вакансий, прокси‑компьютеры и посредники.

То есть «ИИ в найме» — это не только вопрос этики сопроводительного письма. Это еще и вопрос того, как компания проверяет личность, как выдает доступы, как проводит проверки биографии и насколько доверяет удаленному интервью.

Закон тоже догоняет

Регуляторы уже поняли, что автоматизированный найм — не безобидная «внутренняя оптимизация».

В Нью‑Йорке Local Law 144 требует, чтобы automated employment decision tools, автоматизированные инструменты принятия решений о найме, проходили аудит на смещение, а работодатели раскрывали информацию о таком аудите и уведомляли кандидатов. В ЕС AI Act относит ИИ‑системы для найма, управления работниками и доступа к самозанятости к высокорисковым: такие системы могут влиять на карьеру, средства к существованию и права работников.

Американская EEOC еще в 2023 году напоминала, что работодатель не снимает с себя ответственность, если купил ИИ‑инструмент у вендора. Если инструмент непропорционально бьет по защищенной группе, это проблема работодателя, а не только поставщика.

Это важный момент для компаний: нельзя спрятаться за «так решил алгоритм». И для кандидатов тоже: нельзя всю ответственность переложить на «так написал ChatGPT».

Нормальная граница проходит не там, где кажется

Запретить ИИ полностью почти невозможно. Проверить такой запрет надежно тоже почти невозможно. А главное — полный запрет часто бессмысленен.

Если человек использует ИИ как редактора, переводчика, тренажер процесса интервью или как инструмент самопроверки, это выглядит ближе к нормальной профессиональной грамотности. Особенно в IT, где умение работать с инструментами уже часть работы.

Проблема начинается в других местах:

  • ИИ придумывает опыт, которого не было;

  • ИИ пишет ответы, которые кандидат не понимает;

  • ИИ проходит тестовое за кандидата;

  • ИИ подсказывает на интервью в реальном времени там, где это запрещено;

  • кандидат скрывает использование ИИ там, где правила требуют прозрачности;

  • компания использует ИИ для фильтрации кандидатов, но не говорит об этом.

То есть правильный вопрос не «использовал ли ты ИИ?». Правильный вопрос: «Что именно ты сделал сам, где тебе помог инструмент, и можешь ли ты отвечать за итог?»

Для работодателя это означает, что нужно проектировать процесс найма не вокруг детекции ИИ, а вокруг проверки мышления:

  • просить кандидата объяснить решения голосом или на парном разборе;

  • давать небольшие задания с обсуждением компромиссов, а не гигантские домашние проекты;

  • явно писать, где ИИ разрешен, где запрещен, а где нужно раскрыть его использование;

  • проверять не только результат, но и способность кандидата менять решение при новых вводных;

  • не использовать ИИ‑фильтры без прозрачности, аудита и человеческой ответственности.

Для кандидата вывод тоже неприятный, но полезный: ИИ может помочь лучше написать фразы в резюме, но не должен убирать самого человека из уравнения; если после «улучшения» письма из него исчез ваш голос, конкретные детали и шероховатая правда опыта, вы не улучшили отклик. Вы сделали его похожим на остальные.

Так кто в итоге прав?

Anthropic в феврале 2025 выглядела смешно: компания продает ИИ для написания текстов и просит не использовать ИИ в письме о найме. Июльская версия правил выглядит куда реалистичнее: используйте ИИ как партнера, не подменяйте себя моделью, будьте готовы показать собственное мышление.

На мой взгляд, это и есть нормальная позиция. Не «запретить ИИ», не «разрешить все», а вернуть в процесс найма проверяемый сигнал.

Резюме больше не доказывает, что человек умеет писать. Сопроводительное письмо больше не доказывает, что человек действительно заинтересован. Тестовое больше не доказывает, что человек сам писал код. Видеоинтервью уже не всегда доказывает, что перед вами тот самый человек.

Значит, найм придется менять, строя его вокруг того, что сложнее подделать: объяснение решений, совместная работа, проверка контекста, репутация, реальные артефакты, способность признавать ограничения и отвечать за результат.

И вот здесь вопрос уже не к Anthropic, а ко всем нам. Где проходит честная граница между «я использовал инструмент» и «инструмент выступил вместо меня»? Можно ли считать резюме, отредактированное ИИ, личным текстом? Должны ли компании раскрывать свой ИИ в найме так же явно, как требуют этого от кандидатов? И если обе стороны уже «автоматизируют друг друга», не пора ли признать, что старая форма отклика просто умерла?

Автор: achekalin

Источник