Google снизил энергопотребление AI-запросов в 33 раза: что это значит для будущего ИИ
Искусственный интеллект давно вышел за рамки научной фантастики и стал частью нашей жизни — от поисковых систем до чат-ботов и голосовых помощников. Но у этого удобства есть немалая цена: для генерации ответа ИИ расходует значительные вычислительные ресурсы и энергию.
Неочевидные подробности обучения двухбашенных моделей
Введение Привет, Habr! Меня зовут Андрей Атаманюк, я Data Scientist в R&D команде рекомендательных систем Wildberries & Russ. В этой статье я разберу тонкости обучения двухбашенных моделей (без специфики к домену рекомендаций), которые могут существенно влиять на качество рекомендаций, но часто остаются за кадром. Речь пойдёт о систематическом росте норм эмбеддингов популярных товаров — эффекте, который противоречит интуитивным ожиданиям от косинусных лоссов.
Бенчмарк качества распознавания речи (ASR) в телефонии: как мы сравниваемся с Whisper, GigaAM и T-One
Привет! Распознаванием речи (ASR) уже никого не удивишь, но качественное распознавание на разговорном русском языке, а особенно в телефонии — очень сложная штука: люди редко говорят как профессиональные дикторы, часто бывает плохое качество звука с постоянными шумами на фоне и в целом есть миллиарды прочих нюансов. Наша компания занимается голосом больше 8 лет, есть собственные классные модели синтеза, распознавания и продукты на их основе, поэтому экспериментов мы проводим очень много и за появлением новых голосовых моделей следим очень внимательно.
Паттерны проектирования искусственного сознания и закрытие ТПС: дискретизация, рефлексия и рекурсия пространства-времени
Трудная проблема сознания (ТПС) — тупик, а не путьКогда мы говорим о сознании, особенно в контексте искусственного интеллекта, нас неизбежно настигает «трудная проблема сознания» (ТПС), сформированная Дэвидом Чалмерсом: почему и как из физических процессов в мозге возникает субъективный опыт (или квалиа) — ощущение красного, вкус хруста булки, мурашки от музыки? Этот вопрос стал мемом, философским барьером и вызовом для проектирования искусственного интеллекта который, похоже, невозможно преодолеть.При решении этой проблемы философы и специалисты по когнитивным наукам застряли в трёх тупиках:
AI и QA: убьёт ли ChatGPT профессию тестировщика?
ВступлениеКажется, сегодня не осталось ни одной профессии, вокруг которой не возникал бы вопрос: «А не заберёт ли её работу искусственный интеллект?» Особенно это касается сферы тестирования. В чатах и на митапах всё чаще слышно: «ChatGPT всё сам напишет, тестировщики больше не нужны, нас всех уволят…»Честно? Эти разговоры мне тоже попадались не раз, и в какой-то момент я решил: давайте разберёмся спокойно. В этой статье я поделюсь личным мнением о том, как искусственный интеллект уже влияет на сферу QA, где он реально помогает, а где страхи сильно преувеличены.
По следам GPT-5: как LLM все сильнее превращается в айфон
LLMки можно любить и ненавидеть, но нельзя отрицать того, что это что-то очень большое и сильно трансформирующее все вокруг. Я регулярно и помногу размышляю над AI-агентами и в целом траекторией genAI движения и после вчерашней презентации GPT-5 мой личный паззлик окончательно сложился. Все это очень похоже на то, что мы уже видели.И это — iPhone.
Как работает Web Guide от Google и чем он отличается от AI-поиска
Google снова меняет правила игры в поиске. В июле 2025 года компания представила
Semantic Error Correction Loop (SECL): самоисправляющиеся LLM-пайплайны с понятием доверия к контексту
В последние годы большие языковые модели кардинально изменили ландшафт искусственного интеллекта, открывая невероятные возможности для автоматизации текстовых задач. Однако, несмотря на впечатляющие успехи, одна из ключевых проблем остаётся нерешённой — модели часто допускают логические ошибки, создают неясные или избыточные формулировки, а также генерируют тексты с низкой степенью доверия к собственным ответам.В своей практике я столкнулся с необходимостью повышения качества генерации без постоянного ручного контроля и затратных этапов дообучения. Это подтолкнуло меня к идее нового подхода —
RTX 4090 или L40S: оптимальный GPU среднего уровня в 2025 году
Привет! На связи команда mClouds. В 2025 году разработчики AI-проектов сталкиваются с непростым выбором: использовать топовую потребительскую видеокарту RTX 4090 или профессиональное решение L40S. Обе карты построены на архитектуре Ada Lovelace, используют один и тот же графический чип AD102 и имеют похожую вычислительную мощность, но L40S предлагает вдвое больше памяти: 48 ГБ против 24 ГБ у RTX 4090. При этом разница в цене может отличаться в два раза.В этой статье мы детально сравним технические характеристики, производительность и практическую применимость этих карт для различных AI-задач.

