машинное+обучение. - страница 50

ИИ в медицине: исследование показало слабое место языковых моделей

Большие языковые модели давно научились впечатлять. Они красиво отвечают, сдают экзамены, пишут код. Но когда дело дошло до медицины, их возможности оказались ограниченными. Исследование, опубликованное в

продолжить чтение

Google снизил энергопотребление AI-запросов в 33 раза: что это значит для будущего ИИ

Искусственный интеллект давно вышел за рамки научной фантастики и стал частью нашей жизни — от поисковых систем до чат-ботов и голосовых помощников. Но у этого удобства есть немалая цена: для генерации ответа ИИ расходует значительные вычислительные ресурсы и энергию.

продолжить чтение

Неочевидные подробности обучения двухбашенных моделей

Введение Привет, Habr! Меня зовут Андрей Атаманюк, я Data Scientist в R&D команде рекомендательных систем Wildberries & Russ. В этой статье я разберу тонкости обучения двухбашенных моделей (без специфики к домену рекомендаций), которые могут существенно влиять на качество рекомендаций, но часто остаются за кадром. Речь пойдёт о систематическом росте норм эмбеддингов популярных товаров — эффекте, который противоречит интуитивным ожиданиям от косинусных лоссов.

продолжить чтение

Бенчмарк качества распознавания речи (ASR) в телефонии: как мы сравниваемся с Whisper, GigaAM и T-One

Привет! Распознаванием речи (ASR) уже никого не удивишь, но качественное распознавание на разговорном русском языке, а особенно в телефонии — очень сложная штука: люди редко говорят как профессиональные дикторы, часто бывает плохое качество звука с постоянными шумами на фоне и в целом есть миллиарды прочих нюансов. Наша компания занимается голосом больше 8 лет, есть собственные классные модели синтеза, распознавания и продукты на их основе, поэтому экспериментов мы проводим очень много и за появлением новых голосовых моделей следим очень внимательно. 

продолжить чтение

Паттерны проектирования искусственного сознания и закрытие ТПС: дискретизация, рефлексия и рекурсия пространства-времени

Трудная проблема сознания (ТПС) — тупик, а не путьКогда мы говорим о сознании, особенно в контексте искусственного интеллекта, нас неизбежно настигает «трудная проблема сознания» (ТПС), сформированная Дэвидом Чалмерсом: почему и как из физических процессов в мозге возникает субъективный опыт (или квалиа) — ощущение красного, вкус хруста булки, мурашки от музыки? Этот вопрос стал мемом, философским барьером и вызовом для проектирования искусственного интеллекта который, похоже, невозможно преодолеть.При решении этой проблемы философы и специалисты по когнитивным наукам застряли в трёх тупиках:

продолжить чтение

Топ бесплатных нейросетей для анимации картинок: оживите изображение в пару кликов

продолжить чтение

AI и QA: убьёт ли ChatGPT профессию тестировщика?

ВступлениеКажется, сегодня не осталось ни одной профессии, вокруг которой не возникал бы вопрос: «А не заберёт ли её работу искусственный интеллект?» Особенно это касается сферы тестирования. В чатах и на митапах всё чаще слышно: «ChatGPT всё сам напишет, тестировщики больше не нужны, нас всех уволят…»Честно? Эти разговоры мне тоже попадались не раз, и в какой-то момент я решил: давайте разберёмся спокойно. В этой статье я поделюсь личным мнением о том, как искусственный интеллект уже влияет на сферу QA, где он реально помогает, а где страхи сильно преувеличены.

продолжить чтение

По следам GPT-5: как LLM все сильнее превращается в айфон

LLMки можно любить и ненавидеть, но нельзя отрицать того, что это что-то очень большое и сильно трансформирующее все вокруг. Я регулярно и помногу размышляю над AI-агентами и в целом траекторией genAI движения и после вчерашней презентации GPT-5 мой личный паззлик окончательно сложился. Все это очень похоже на то, что мы уже видели.И это — iPhone.

продолжить чтение

Как работает Web Guide от Google и чем он отличается от AI-поиска

Google снова меняет правила игры в поиске. В июле 2025 года компания представила

продолжить чтение

Semantic Error Correction Loop (SECL): самоисправляющиеся LLM-пайплайны с понятием доверия к контексту

В последние годы большие языковые модели кардинально изменили ландшафт искусственного интеллекта, открывая невероятные возможности для автоматизации текстовых задач. Однако, несмотря на впечатляющие успехи, одна из ключевых проблем остаётся нерешённой — модели часто допускают логические ошибки, создают неясные или избыточные формулировки, а также генерируют тексты с низкой степенью доверия к собственным ответам.В своей практике я столкнулся с необходимостью повышения качества генерации без постоянного ручного контроля и затратных этапов дообучения. Это подтолкнуло меня к идее нового подхода —

продолжить чтение

Rambler's Top100