От ChatGPT к мультиагентному контент-пайплайну: как 5 AI-агентов пишут мне кейсы
Это не просто статья на Хабре. Это AI-сгенерированная статья на Хабре. Ха! Попались? Меня зовут Ксения Иванчикова, я развиваю медиа Generation AI. Еще год назад я писала умные промпты для ChatGPT в надежде получить глубокий и качественный контент — получалось так себе. Недавно я навайбкодила пайплайн из пяти AI-агентов: они берут 20-минутную запись доклада с YouTube, выдают готовый кейс и верстают контент на WordPress. Рассказываю про опыт создания контент-машинки, которая не делает нейрослоп.
Тонкая настройка PostgreSQL 17: как три параметра изменили ландшафт ввода-вывода
Методология анализа отчётов pgpro_pwr с помощью PG_EXPECTO и DeepSeek: планы выполнения PostgreSQL 17 при использовании online_analyze.enable=on, autoprepare_threshold=0, generic_plan_fuzz_factor=1.Эмпирическая реконструкция причинно-следственного механизма: почему отказ от преждевременной фиксации общих планов оказался решающим фактором снижения дисковой нагрузки, а актуализация статистики в реальном времени — лишь сопутствующим условием.
Массовая блокировка Claude. Как айтишникам и бизнесменам защитить себя от убытков в следующий раз
Несколько сотен российских пользователей потеряли аккаунты в Claude. Несмотря на VPN, люди лишились того, что строили месяцами. В лету канули ИИ-агенты, аналитические данные, автоматизации.
Проклятие Grok: ни один основатель не остался в проекте Илона Маска. Досье SpeShu.AI
Grok — нейросеть компании xAI, которую основал Илон Маск в марте 2023 года. Для разработки он собрал 11 исследователей — всех переманил из DeepMind, Google, OpenAI, Microsoft Research и Университета Торонто. К маю 2026 года абсолютно все 11 сооснователей покинули компанию.
Курсы по нейросетям: рейтинг лучших программ обучения 2026
Курсы по нейросетям в 2026 году предлагают чёткое разделение: практические треки для автоматизации рабочих задач и фундаментальные программы для подготовки AI- и ML-инженеров. Мы сравнили 4 актуальные программы Skillbox и GeekBrains, которые отобрали из каталога Хабр Курсов, от двухнедельного экспресс-старта до годовых треков с MLOps и Big Data.СодержаниеСравнительная таблица
Кириллица в LLM: почему русский язык в нейросетях стоит дороже и работает медленнее
Когда вы пишете запрос в ChatGPT или другую нейросеть, она не работает с буквами или словами — она режет ваш текст на маленькие кусочки. Эти кусочки называются токенами, и от того, как именно нейросеть режет текст, зависит цена ответа, скорость, и сколько информации в неё помещается за раз. С английским это работает хорошо: одно слово — обычно один‑два кусочка. С русским всё хуже: то же самое слово часто превращается в три‑четыре обрывка. Английское «contract» — один токен. Русское «разработка» — два‑три. «Программирование» — три‑четыре.
Токенизация: почему ИИ сложно считать буквы «r» в «strawberry»?
Пока мы воспринимаем свои промпты как обычный текст из символов, для LLM они в виде токенов «выглядят» совсем иначе. И если не осознавать этого, порой можно наткнуться на проблемы. Поэтому полезно (и интересно) понимать: что вообще представляют собой токены? По какому алгоритму текст преобразуют в них и обратно? Какие важные нюансы при этом возникают?Возможно, подробнее и понятнее всех объяснил пару лет назад ИИ-рисерчер Андрей Карпатый, записав двухчасовое видео

