Хакеры использовали ИИ для взлома 600 брандмауэров за пять недель
Согласно исследованию безопасности от Amazon.com Inc., за последние пять недель ограниченное число хакеров взломали более 600 брандмауэров в десятках стран с помощью широко доступных инструментов искусственного интеллекта.Небольшая группа хакеров — а возможно, и всего один человек — использовала коммерческие сервисы генеративного ИИ, чтобы быстро обойти слабые меры безопасности, такие как простые учетные данные для входа или однофакторная аутентификация. Эти методы позволили злоумышленникам взламывать брандмауэры в масштабах, которые в противном случае потребовали бы участия более крупной и опытной команды.
Неожиданный успех, превративший Anthropic в гиганта в сфере искусственного интеллекта
Год назад компания Anthropic выпустила Claude Code, заставив других конкурентов догонять.
OpenAI выявил подозреваемую за восемь месяцев до преступления
OpenAI в июне прошлого года заблокировала аккаунт подозреваемой в одном из самых жестоких массовых расстрелов в истории Канады за нарушение правил использования ChatGPT, не передав информацию в полицию.Компания, занимающаяся разработкой искусственного интеллекта, сообщила, что у предполагаемого убийцы — Джесси Ван Рутселаара (Jesse Van Rootselaar ) — был аккаунт, который около восьми месяцев назад был обнаружен системами, отслеживающими неправомерное использование, в том числе возможное содействие насильственным действиям.
Anthropic представляет инструмент кибербезопасности Claude
Акции компаний, занимающихся разработкой программного обеспечения для кибербезопасности, упали в цене в пятницу после того, как Anthropic PBC представила новую функцию безопасности для своей модели искусственного интеллекта Claude.Crowdstrike Holdings оказалась в числе лидеров падения, потеряв 8%, в то время как Cloudflare Inc. рухнула на 8,1%. Между тем Zscaler подешевела на 5,5%, SailPoint — на 9,4%, а Okta Inc. — на 9,2%. ETF Global X Cybersecurity упал на 4,9% и закрылся на самом низком уровне с ноября 2023 года.
Стоит ли обжаловать решение суда? Битва AI-титанов в 2026 году
Как разработчик постоянно ищу способы улучшить качество прогнозов своего сервиса, который анализирует судебные документы (иски, решения судов), и выдаёт прогноз исхода. А с недавних пор производит также оценку шансов на обжалование судебных актов. Качество этого прогноза - core value.Недавно на рынке произошло мощное обновление всей "большой тройки" LLM. Я решил провести исследование и сравнить самые свежие версии моделей от Anthropic, OpenAI и Google, чтобы понять, кто из них лучше всего справляется с ролью "LLM as real Judge". Причем только в части оценки шансов в апелляции.
Zator: Специализированный язык программирования для построения генеративных пайплайнов через KoboldCpp и StableDiffusion
Введение: Когда простота становится стратегиейВ эпоху бурного развития генеративного искусственного интеллекта разработчики, дизайнеры и создатели контента сталкиваются с парадоксальной проблемой: несмотря на доступность мощных моделей вроде Stable Diffusion и больших языковых моделей через KoboldCpp, процесс создания воспроизводимых, автоматизированных пайплайнов остается удивительно сложным. Традиционные подходы требуют написания десятков строк шаблонного кода для обработки HTTP-запросов, парсинга JSON-ответов, управления файлами и постобработки результатов. Именно эту проблему решает Zator
Нейросети, суды и разработчики: кто отвечает за то, что придумал ИИ?
ИИ-контент. Что это для вас?ИИ сегодня не использует только ленивый. Это просто, удобно, быстро и не дорого (если вообще не бесплатно). ИИ уже может все от текстов и картинок до кода и музыки. Но есть вопрос, о котором никто не думает до первого суда: кому это принадлежит? Мне, как IT-юристу было любопытно в этом разбираться. Но для авторов и создателей это вопрос не любопытства, а потенциальных исков и штрафов.На первый взгляд регулирования нет, закона нет, многие думают, что все можно. Вы тоже?
SkillsBench: скиллы дают реальный буст, но только если их писал человек
Исследователи сделали первый бенчмарк, который измеряет, помогают ли «скиллы» ИИ-агентам решать задачи. Его назвали SkillsBench.Skill — это, по сути, папка с инструкциями, скриптами и подсказками, которую агент читает перед тем, как приступить к задаче. Что-то вроде методички для конкретной предметной области. Такие скиллы уже активно используются в Claude Code, Gemini CLI и Codex CLI, но до сих пор никто систематически не проверял, работают ли они вообще.
Data Structure Protocol (DSP): как дать LLM-агентам «долговременную память» о большом репозитории
Есть паттерн, который видит кажд��й, кто работает с агентами: первые 5–15 минут уходят не на задачу, а на "ориентацию". Где точка входа? Откуда растут зависимости? Почему эта библиотека, а не другая? Кто считает это публичным API? В маленьком проекте раздражает. В большом — превращается в постоянный налог на токены и внимание.DSP (Data Structure Protocol) "выносит карту проекта наружу" — в простой, версионируемый, языковой граф, который живёт рядом с кодом и доступен агенту как постоянная память.k-kolomeitsev/data-structure-protocolЦель в архитектуре сформулирована так:

