машинное+обучение. - страница 51

Semantic Error Correction Loop (SECL): самоисправляющиеся LLM-пайплайны с понятием доверия к контексту

В последние годы большие языковые модели кардинально изменили ландшафт искусственного интеллекта, открывая невероятные возможности для автоматизации текстовых задач. Однако, несмотря на впечатляющие успехи, одна из ключевых проблем остаётся нерешённой — модели часто допускают логические ошибки, создают неясные или избыточные формулировки, а также генерируют тексты с низкой степенью доверия к собственным ответам.В своей практике я столкнулся с необходимостью повышения качества генерации без постоянного ручного контроля и затратных этапов дообучения. Это подтолкнуло меня к идее нового подхода —

продолжить чтение

RTX 4090 или L40S: оптимальный GPU среднего уровня в 2025 году

Привет! На связи команда mClouds. В 2025 году разработчики AI-проектов сталкиваются с непростым выбором: использовать топовую потребительскую видеокарту RTX 4090 или профессиональное решение L40S. Обе карты построены на архитектуре Ada Lovelace, используют один и тот же графический чип AD102 и имеют похожую вычислительную мощность, но L40S предлагает вдвое больше памяти: 48 ГБ против 24 ГБ у RTX 4090. При этом разница в цене может отличаться в два раза.В этой статье мы детально сравним технические характеристики, производительность и практическую применимость этих карт для различных AI-задач. 

продолжить чтение

Когда две головы лучше, чем одна: ученые экспериментируют с коллективной работой нейросетей

Привет, Хабр! Меня зовут Кирилл Пшинник, я научный сотрудник Университета Иннополис и CEO Онлайн-Университета «Зерокодер», а также автор книги «Искусственный интеллект: путь к новому миру». Как можно понять, я интересуюсь нейросетями и разными сторонами их использования: читаю новости, научные работы, пишу статьи сам. Сегодня я хочу рассказать о японском стартапе Sakana AI, который изобрел open-source фреймворк TreeQuest. Он позволяет использовать сразу несколько разных больших языковых моделей для того, чтобы получить более точный результат. Но начну я с голубей. 

продолжить чтение

Grok 4, Chimera и LLM от ETH Zurich: что нового в мире больших языковых моделей

продолжить чтение

Micro-LLM: почему будущее за миниатюрными моделями

Micro-LLM: почему будущее за миниатюрными моделямиКогда-то программные системы строились как монолиты. Огромные, неповоротливые, требующие много ресурсов и постоянного внимания. Сегодня мир ИТ массово переходит на микросервисную архитектуру. Подобный сценарий вполне реален и в мире искусственного интеллекта, особенно в области больших языковых моделей (LLM).

продолжить чтение

BirdCLEF+ 2025: обзор соревнования и ключевые решения топ-5 команд

BirdCLEF+ 2025 — очередная часть ежегодного соревнования от Cornell Lab of Ornithology по распознаванию звуков дикой природы. В этом году участникам предстало предсказывать целевое животное на коротких фрагментах записи, балансируя между качеством моделей и жёсткими ограничениями железа.Описание соревнованияВот тут полный пост с описаниемДанные – Объём: 12 ГБ аудиозаписей птиц, насекомых, амфибий и рептилий. – Источники: xeno-canto.org, iNaturalist, Colombian Sound Archive (CSA), причём первые два — чистый краудсорс, разметка «грязная»:

продолжить чтение

Скучная правда про LLM: эффект дают не громкие слова, а простые сценарии с очевидной ценностью

продолжить чтение

No-code-разработка и ML-помощники – инструменты аналитиков SOC нового поколения

ВведениеДавайте представим, как могло бы выглядеть рабочее место SOC-аналитика будущего. В том числе рассмотрим, какие были бы полезны в реагировании и расследовании ML-помощники: некоторые из упомянутых в статье мы уже внедрили в наши продукты, а некоторые – еще в планах или могут послужить в качестве идеи для тех, кто сталкивается с подобными задачами.Сначала рассмотрим, как чаще всего устроено рабочее место аналитика SOC. На самом деле в современном процессе управления инцидентами уже активно применяются доступные ИИ-помощники, упрощающие или ускоряющие работу.

продолжить чтение

Локальный чатбот без ограничений: гайд по LM Studio и открытым LLM

продолжить чтение

Выбираем для старта в ML: графические процессоры V100 vs игровые видеокарты RTХ 3090-4090

Привет, Хабр! Сегодня углубимся в различия между GPU NVIDIA TESLA V100 и видеокартами RTХ 3090/4090 и поймём, какие системы лучше подходят для обучения больших языковых моделей. 

продолжить чтение

Rambler's Top100