Как я автоматизировал поиск работы, и мой бот случайно откликнулся моему шефу
Поиск работы в IT превратился в какой-то сюр.С одной стороны - HR, которые не читают резюме и фильтруют кандидатов по ключевикам. С другой - кандидаты, которые бомбят веерной рассылкой "здравствуйте, рассмотрите меня".Чтобы найти нормальный оффер, нужно тратить 2-3 часа в день на скроллинг ленты и написание сопроводительных, которые никто не откроет.Меня это достало. Я разработчик, я хочу писать код, а не играть в бюрократию.Поэтому я решил написать AI-агента, который заберет эту рутину на себя. Спойлер: он сработал слишком хорошо и чуть не устроил одному из пользователей увольнение.
Как я тестирую крупные системы, которые невозможно протестить на статичных данных
Например, в управлении транспортом статичные данные (например, сет за «типичный вторник») не дают протестировать систему в условиях праздника, крупной аварии, сессии у студентов, скидки 99% на Лабубу в крупном супермаркете и так далее. Что мы сделали:— Стали брать реальные данные с прода, которые выбиваются за стандартные представления.— Обезличивать их.— Использовать ML-модель для генерации сценариев, где эти данные увязываются с остальными в системе. Это типа генерации новых данных с усилением трендов и их пересечением.
The Romantics at Anthropic: Why Researchers Talk About LLMs as if They Were Human
In my previous article, I showed how researchers confused being 'aware' (signal registration) with being 'conscious' (subjective awareness). But this is no accident — it is part of a narrative being constructed by AI labs. Anthropic is leading this trend. Let’s break down their latest paper, where a "learned pattern" has suddenly turned into "malicious intent."I recently analyzed an experiment by scientists from AE Studio in which they conflated "aware" (registering a signal) with "aware" (conscious realization). Yet, such anthropomorphization of LLMs is now ubiquitous — in no small part thanks to papers from Anthropic. It seems to me that it is largely through their influence that terms like deception, sabotage, and intent have entered the vocabulary of LLM researchers.
Почему я НИКОГДА не выгораю
Привет, Хабр!В прошлой статье я писал про свой логический симулятор, который переписываю уже два года подряд. Но если честно, это далеко не первый проект, который я тащу на себе годами.Если кратко — до программирования я долго занимался пиксель‑артом, выпустил покерную колоду, делал с командой интерьерные фигурки Которастений в глиняных горшочках и даже принял участие в разработке игры.Примеры моих прошлых проектов для понимания контекста монологаГрафика для игры Hero Of Not Our Time (HONOT)
LLM Judge для валидации образовательного контента: архитектура кросс-модельной оценки с бюджетом $0.014 за курс
Как мы решили проблему "стохастической дивергенции" при генерации уроков и снизили затраты на валидацию в 17,000 раз по сравнению с ручной проверкойКонтекст: кто пишет и о чем эта статьяИгорь Масленников. В IT с 2013 года. Последние два года развиваю AI Dev Team в DNA IT — подразделение, которое работает на мульти-модельной архитектуре. Мы генерируем образовательные курсы для клиентов с бюджетом
Долгая дорога к DiT (часть 3)
Заключительная (но ещё не последняя) статья из цикла про диффузные модели, где мы наконец отбросим примитивную модель из полносвязных слоёв и напишем работающий генератор изображений c архитектурой Diffusion Transformer (DiT). Разберёмся зачем нарезать изображения на квадратики и увидим, что произойдёт с вашей генерацией, если проигнорировать главную "слабость" трансформеров - неспособность понимать порядок.Часть 1Часть 2Очень кратко про трансформеры
Команда разработчиков программного обеспечения General Motors за последний месяц потеряла трёх ведущих руководителей
За последний месяц команду разработчиков программного обеспечения General Motors покинули три руководителя высшего звена. Весной этого года автопроизводитель нанял на новую должность директора по продуктам Стерлинга Андерсона, который объединяет разрозненные технологические подразделения компании в единую структуру.
OpenAI сообщила об утечке данных некоторых пользователей API
OpenAI разослала письма пользователям API, чьи данные утекли из сервиса Mixpanel. Компания использует его для аналитики. Пароли, платёжные данные, история запросов и другая чувствительная информация не попала в руки злоумышленников, но у них теперь есть адреса электронной почты, имена и примерное местоположение.

