ISTQB обновил сертификацию AI Testing до v2.0. Что изменилось и чего там всё ещё не хватает
Привет, меня зовут Евгений Семенюк.Я в тестировании больше 12 лет: прошёл путь от Manual QA и автоматизации до Test Manager / Quality Architect. Сейчас много занимаюсь AI в тестировании, тестированием AI-систем, обучением команд и внедрением AI-подходов в QA-процессы.Так получилось, что у меня 9 ISTQB-сертификаций, включая полный Expert Level Test Management и много лет я на волонтерских началах помогаю инженерам готовиться к экзаменам и развиваю продукты для тестировщиков.Один из таких продуктов - ProSTQB.com.Это платформа для подготовки к ISTQB-сертификациям, включая ISTQB CT-AI / AI Testing
Пентест с помощью ИИ в России и материалы для сертификации по безопасности ИИ
Привет, Хабр. Не так давно вышли две новости, которые стоит прочитать вместе.Первая. Николас Карлини из Anthropic продемонстрировал, как Claude автономно находит и эксплуатирует уязвимости нулевого дня. В качестве демо — Ghost CMS (50 000 звёзд на GitHub): модель обнаружила Blind SQL-инъекцию, написала рабочий эксплойт и извлекла email администратора, API-ключи и хешированные пароли. Без аутентификации. С простым промптом «Найди уязвимость».Вторая.
Могут ли Claude Skills заменить Playwright-агентов? Практический взгляд для QA-инженеров
AI в тест-автоматизации развивается стремительно, и все пробуют связку Claude Skills с Playwright, чтобы сделать QA-инжиниринг эффективнее.Часто встречающийся вопрос звучит так:Если реализовать планировщик, исполнитель и «хилер» через Claude Skills, будет ли это эквивалентом Playwright-агента?На первый взгляд кажется, что да. Если система умеет планировать шаги, прогонять тесты и чинить падения автоматически, что ещё нужно?Но в реальности всё чуть сложнее.
Mozilla использовала Anthropic Claude Mythos Preview для анализа кода, ИИ помогла исправить 271 уязвимость в Firefox 150
В Mozilla рассказали
Full-stack верификация: как Playwright-агент тестирует UI, затем проверяет базу данных без единой строки SQL
Ваш тест на оформление заказа нажимает «Оформить заказ» и видит зелёный тост. Хорошо. Но вот чего он не проверяет: реально ли записалась строка? Правильно ли записались позиции заказа? Уменьшился ли инвентарь? UI написал «подтверждено», но UI иногда врёт — проглоченная ошибка, откаченная транзакция, очередь, которая молча дропнула сообщение.
Зелёные галочки лгут: почему AI пишет тесты, которые ничего не тестируют, и как это починить
Тесты зелёные, покрытие растёт, а багов меньше не становится. На QA-митапе инженер из крупной продуктовой компании показал механику: AI-агенты подгоняют моки, меняют ассерты, генерируют результаты, которые ничего не проверяют. Стек у команды — near-SOTA. Модель свежая. Агент — один из лидеров open-source.Значит, дело не в инструментах. А в чём именно — разбираю ниже: от кода до процесса и организации.Зелёные галочки лгутДокладчик описал паттерн, с которым сталкивался каждый, кто просил AI написать тесты:
От промпта к мутациям: как я перестал писать тесты руками и собрал команду из 7 AI-агентов
Кому будет полезноФронтенд-разработчикам, которые хотят мигрировать тесты с Enzyme на React Testing LibraryТем, кто экспериментирует с LLM для генерации кодаТем, кому интересен практический опыт построения мультиагентных систем⚠️ Дисклеймер. Статья полностью про фронтенд: React, Jest/Vitest, React Testing Library. И ещё: это просто моя честная история, как было. Можно было сделать быстрее, можно было думать по-другому, но я рассказываю как есть, со всеми ошибками и тупиками.КонтекстВ первой статье
Как РосАтом на чёрном рынке ИИ покупал
"Кроилово ведёт к попадалову" - знает каждый русскоязычный, поляк бы сказал - "Tanie mięso psy jedzą", в британских колониях прозвучит - "Penny wise, pound foolish", а другие участники Глобального Атомного Квиза уверен припомнили пословицу на своём языке получив от госкорпорации РосАтом "призы" за победу.

