Natural Language Processing. - страница 3

TOON: новый формат на смену JSON для более эффективного взаимодействия с LLM?

TOON — это ещё один способ записать те же самые JSON-данные, но компактнее и понятнее для моделей. Вместо  "key": "value" он использует отступы как YAML и табличную запись для массивов объектов: шапка с названиями полей, дальше строки с данными.

продолжить чтение

Baidu представила мультимодальную ERNIE, которая обходит GPT и Gemini в ключевых тестах

Baidu выпустила новую мультимодальную модель ERNIE-4.5-VL-28B-A3B-Thinking

продолжить чтение

Когда RAG на Go свистнет: собираем прототип чата за вечер

Привет, я — Евгений Клецов, Go-разработчик в Cloud.ru

продолжить чтение

В Google предупредили о вирусах нового поколения, способных удалённо подключаться к моделям генеративного ИИ

Технические специалисты Google Threat Intelligence Group (GTIG)

продолжить чтение

Хайп vs реальность: что tech-медиа пишут об ИИ и кто реально лучший в 2025?

За последний месяц я детально отслеживал каждую статью об искусственном интеллекте в ведущих западных tech-изданиях. 200 статей из TechCrunch, VentureBeat и MIT Technology Review за 26 дней — в среднем почти 8 новостей об ИИ каждый день. Цель эксперимента была проста: понять, совпадает ли то, о чём громче всего кричат медиа, с реальными возможностями ИИ-моделей.Спойлер: не совпадает. И разрыв между медийным шумом и реальностью оказался весьма значительным.Методология исследования Я мониторил три ключевых источника tech-новостей:TechCrunch — крупнейшее издание о стартапах и технологиях VentureBeat

продолжить чтение

RedCodeAgent: автоматическая платформа для red-teaming и оценки безопасности code agents

Команда AI for Devs подготовила перевод статьи о RedCodeAgent — первой полностью автоматизированной системе red-teaming для проверки безопасности кодовых агентов. Исследователи из Чикаго, Оксфорда, Беркли и Microsoft Research показали: даже самые продвинутые LLM-агенты могут генерировать и выполнять уязвимый код. RedCodeAgent не просто тестирует ответы — он атакует, анализирует поведение и находит уязвимости, которые пропускают все остальные методы.

продолжить чтение

ИИ-ученые 2025: SR-Scientist, DeepEvolve и Kosmos — чем отличаются и зачем. И почему выстрелил Kosmos

В 2025-м на наших глазах складывается новый класс инструментов - ИИ-Ученые (AI-Scientist). Если раньше алгоритмы ИИ могли только генерировать идеи или перерабатывать уже известные решения, то современные системы умеют не просто придумывать гипотезы, но и реализовывать их на практике, тестировать и совершенствовать из раза в раз. Речь не просто про чат-боты и Co-Pilot’ы, речь про агентные системы, которые сами ставят гипотезы, пишут и исполняют код, проверяют результаты и накапливают опыт. В чем сутьВ науке есть 3 сложных момента:понять, что уже известно

продолжить чтение

Meta и исследователи из OpenAI: новые подходы к защите LLM от prompt injection

Команда AI for Devs подготовила перевод краткой выжимки свежих статей о безопасности LLM. Meta предлагает «Правило двух» — архитектурный принцип, ограничивающий права AI-агентов, чтобы защитить их от prompt injection. А исследователи из OpenAI, Anthropic и Google DeepMind показывают: все существующие защиты легко обходятся адаптивными атаками. На этих выходных мне попались две интересные работы о безопасности LLM и атаках через prompt injection.Agents Rule of Two: Практический подход к безопасности AI-агентовПервая статья — Agents Rule of Two: A Practical Approach to AI Agent Security

продолжить чтение

Claude Code снова удивляет — теперь уже в криптографии

Мы уже видели, как языковые модели решают задачки, над которыми профессора чесали головы годами. Видели, как они не решали задачу, а просто находили ответ, потому что знали, где копать (и не ленились, в отличие от нас, смертных). А теперь Claude Code от Anthropic залез в криптографию и починил реализацию постквантового алгоритма.Инженер писал на Go реализацию ML-DSA, всё шло по плану, пока проверки не начали сыпаться с “invalid signature”.

продолжить чтение

Эффект Даннинга — Крюгера в нейросети. OCR распознавание текста LLM: доверяй, но проверяй

продолжить чтение

Rambler's Top100