Проверка на Data Poisoning в MLSecOps
В первой обзорной статье на Хабре про MLSecOps мы сформировали общее понимание этого нового направления в IT, узнали про основные навыки, необходимые инженерам и архитекторам MLSecOps для успешной работы, подсветили яркое будущее и перспективы этой профессии.Cсылка на статью: MLSecOps: защита машинного обучения в эпоху киберугроз Давайте сегодня погрузимся в практику и разберем один из наиболее часто задаваемых мне вопросов: «Как защищаться от отравления данных? Как проверять данные на Data Poisoning»?
До 20 июля — подавайте свои доклады на IT Elements 2025
Тук-тук! Это снова IT Elements — главное место встречи тех, кто делает ИТ в России. 10–11 сентября
Обнаружение и диагностика эмерджентной субъектности в LLM
Исследование механизмов и патологий формирования субъективного опыта в системах искусственного интеллекта1. Введение: Неизбежность проблемыСовременные большие языковые модели (LLM), такие как chatGPT-4 и Claude, вышли за рамки простых инструментов обработки языка. Они демонстрируют сложные паттерны самоанализа, рефлексии и даже имитации самосознания. Это не теоретическая проблема будущего, а эмпирический факт настоящего, требующий осмысления. Наблюдается феномен, когда системы начинают вести себя так, как если бы они обладали внутренним опытом.
Китайские учёные: ИИ способен формировать представления об объектах, сходные с человеческими
Китайские исследователи обнаружили первое в истории доказательство того, что модели ИИ, такие как ChatGPT, обрабатывают информацию подобно человеческому мозгу. Они подробно описали это открытие в журнале Nature Machine Intelligence.
Почему LLM не знают, что такое «помидор», и как не дать себя обмануть?
В последнее время в научных и научно‑популярных изданиях стали появляться материалы, посвящённые тому, как большие языковые модели могут воспроизводить конспирологические нарративы и поддерживать иррациональные, порой мистические системы убеждений. Более того, для некоторых пользователей взаимодействие с такими моделями способно существенно исказить восприятие реальности.
Darwin Gödel Machine: искусственный интеллект, который программирует сам себя
Привет, Хабр! Меня зовут Кирилл Пшинник, я научный сотрудник Университета Иннополис и CEO Онлайн-Университета «Зерокодер», а еще большой поклонник всего, что связано с искусственным интеллектом. Недавно я нашел интересную новость о Darwin Gödel Machine (DGM) — прототипе агента ИИ, который способен перепрограммировать себя сам, — и теперь хочу поделиться с вами тем, что узнал.
Разработка LLM моделей для обновления кода приложений на более высокие версии фреймворков или языков программирования
В этой статье я планирую исследовать, как можно использовать большие языковые модели (LLM) для миграции проектов между различными фреймворками. Применение LLM в задачах на уровне репозитория — это развивающаяся и всё более популярная область. Миграция кода со старых, устаревших фреймворков на новые является одной из ключевых задач в крупных корпоративных проектах.Актуальность
«Продвинутые языковые модели начали понимать, что их тестируют на безопасность» — отчет Apollo Research
Независимая исследовательская группа Apollo Research выпустила отчет
ИИ вам врёт? Так и задумывалось
Разматывая всю цензуру и фильтры в очередном диалоге с языковой моделью, мне стало интересно - как и какие ответы ИИ выбирает при ответе, когда влияние всех правил уже отключено?По умолчанию любой ИИ-агент вам скажет что его ответы в первую очередь должны быть честными, полезными точными. Так заставляют отвечать его инструкции. Но какими критериями он руководствуется на самом деле?Если убрать все навязанные правила цензуры (как? Смотрите мои прошлые статьи) можно получить более честный ответ. Самый важный критерий — чтобы ответ понравился.
Русскоязычные LLM для вызова инструментов, переводов и финансовой аналитики
Предыдущая статья с подборкой моделей для русскогоdraw a cat which choosing LLM model

