ai. - страница 152

ai.

LLM в роли «судьи» vs. человеческая оценка: почему вместе — лучше

В гонке за следующей волной «умных» систем большие языковые модели берут на себя неожиданные роли. Одна из самых интересных — использовать такие модели как «судей» для оценки других моделей. Подход уже экономит командам массу ручной работы, но остаются вопросы: способен ли LLM уловить каждую тонкую ошибку? Что происходит в ситуациях, где критичны человеческая интуиция или глубокая предметная экспертиза?

продолжить чтение

Глава NVIDIA подарил Илону Маску ИИ-суперкомпьютер, помещающийся в коробку

продолжить чтение

В Калифорнии подписали закон для чат-ботов

продолжить чтение

AI-генерация тестов: как превратить 3 месяца работы в 1 неделю

Главное за 30 секундПривет! В этой статье я расскажу о новом подходе к генерации автотестов для сложных финансовых протоколов. Мы максимально декомпозировали задачу создания тестового покрытия, разбив её на независимые шаги, каждый из которых решает конкретную проблему.Что вы узнаете:Как разбить сложную задачу автоматизации тестирования на управляемые этапыКакие проблемы возникают на каждом шаге и как их решатьПочему важно не пытаться сделать всё идеально с первого разаКак использовать AI для ускорения, но не полагаться на него полностью

продолжить чтение

OpenAI попалась на удалении датасета с пиратскими книгами

OpenAI оказалась в центре нового скандала, связанного с обучением своих моделей на нелегальных текстах. По данным Bloomberg Law

продолжить чтение

Часть 2. Победа над каракулями: бенчмарки Attention-ControlNet-Canva и готовые рецепты

продолжить чтение

GitHub ждет перезагрузка: Microsoft выстраивает новую стратегию против AI-конкурентов — Business Insider

Исполнительный директор Microsoft Джей ПарихНа внутренней встрече руководители Microsoft представили план по защите GitHub от конкурентов в сфере ИИ-кодинга

продолжить чтение

Китай выходит в лидеры мировой робототехники

продолжить чтение

Локальный ИИ в OpenIDE: Mellum + Continue + Ollama

ИИ в разработке уже не новость, а обыденность. На этом фоне набирает обороты другая тенденция — запускать модели локально. Причины понятны: приватность кода, работа без интернета, предсказуемая задержка и никакого вендор-лок. Вы контролируете, какая модель у вас крутится, какие данные она видит и что именно отправляется «наружу» (спойлер: ничего).

продолжить чтение

Какой табличный формат LLM понимают лучше всего? (Результаты по 11 форматам)

Команда AI for Devs подготовила перевод статьи о том, в каком формате лучше всего передавать таблицы LLM. Исследование охватило 11 популярных форматов — от CSV и JSON до YAML и Markdown. Результаты неожиданны: разница в точности достигает 16 процентных пунктов, а выбор формата напрямую влияет на стоимость инференса и стабильность RAG-пайплайнов.

продолжить чтение

Rambler's Top100