Data Engineering.

AIRI представил ELMUR — архитектуру памяти для роботов на базе ИИ

продолжить чтение

Эволюция мышления ИИ: от Берлиоза к Воланду и Достоевскому

В настоящее время нейросети в целом ряде областей гуманитарного знания обладают обширным интеллектом, хотя и на уровне персонажа романа «Мастер и Маргарита» Берлиоза. Но буквально через несколько лет способности ИИ могут приблизиться к способу мышления, продемонстрированного другим персонажем романа – Воландом, а затем и реального писателя – Федора Михайловича Достоевского. 

продолжить чтение

Как я пришёл в аналитику, устроился в бигтех и понял, что только на рабочих задачах у меня не получится расти

Всем привет! Меня зовут Сергей Тимакин, мне 22 года. Я учусь в онлайн-магистратуре НИЯУ МИФИ в партнёрстве с Яндекс Практикум на программе «Специалист по работе с данными и ИИ» и работаю аналитиком данных в Озоне. В статье рассказываю, как я стал аналитиком, устроился в Озон, зачем пошел онлайн-магистратуру и как я совмещаю учёбу с работой.

продолжить чтение

Поиск видеоконтента: сравнение Hikvision и СпецЛаб

Не смотря на развитие MML, поиск видеоконтента остался на доИИшном уровне. Найти фильм по содержанию невозможно даже на Ютьюбе. Поисковая проблема поиска видеоконтента сегодня решается не IT-гигантами, а компаниями по производству систем видеонаблюдения. И в будущем, даже когда Гугл сподобиться ввести такой функционал, все равно эта ниша потенциально свободна, т.к. дикое видеонаблюдение имеет серьезные отличия от качественных съемок рилсов и кино.

продолжить чтение

Как подготовить данные к анализу: очистка и предобработка, без которых всё остальное не имеет смысла

Привет, Хабр! Меня зовут Руслан Каллагов, я системный аналитик в Лаборатории Globus — партнёре Нетологии по стажировкам на курсах ИТ-профессий. Уже 4,5 года я работаю в проектировании программного обеспечения и верю в инженерный подход к подготовке данных. Специально для хабровчан собрал практическое руководство по подготовке, очистке и предобработке данных для анализа и машинного обучения. В нём объясняю ключевые этапы подготовки данных, показываю примеры кода, даю чек-листы и алгоритмы действий.

продолжить чтение

Как мы встроили LLM в Data Quality и не потеряли контроль

Привет, Хабр! Меня зовут Макунина Арина, я аналитик и инженер данных в Just AI. Наша команда аналитики обожает, чтобы рутина в данных была максимально предсказуемой. Если что-то ломается, то должно быть понятно что, где, почему и что делать дальше. Когда мы поработали с Data Quality в продакшене, выяснилось, что правила качества сами по себе есть базовый минимум, но время утекает в две черные дыры.Первая — это эффект белого листа.

продолжить чтение

Искусственный интеллект в Data Science: инструменты и границы возможностей

Нейросети ещё не стали обязательным пунктом в требованиях работодателей, но на практике многие дата-сайентисты уже используют LLM в работе: генерируют код в Cursor, пишут SQL-запросы в DataGrip и спрашивают совета у ChatGPT.Хабр, привет! Меня зовут Вячеслав Демин, я больше пяти лет работаю в сфере Data Science. Сейчас я руководитель направления аналитики данных в Сбере и эксперт на курсе «Специалист по Data Science» в Яндекс Практикуме. Начинал с этого же курса в 2020 году, после чего работал в сфере страхования и нефтехимии.

продолжить чтение

Next Best Action: от задолженности к прибыли через персонализацию коммуникаций

Привет, Хабр! На связи — Ольга Кравченко, техдиректор по разработке моделей Газпромбанк.Тех. Сегодня я поделюсь кейсом, как наша команда создала инструмент, позволяющий нам продвигаться от просроченной задолженности к прибыли через персонализацию коммуникаций. Эта статья основана на моём выступлении на HighLoad++.

продолжить чтение

Что если собирать агентов как dbt-проект?

Я пришел в разработку агентов из дата инженерии, и в очередной раз занимаясь сборкой типовой структуры на LangGraph я заскучал по декларативному подходу, хорошо многим знакомому по dbt - там ты описываешь что ты хочешь сделать с данными, а не как. И тогда у меня появилась мысль - а почему бы не собрать свой фреймворк для агентов, который даст тот же подход.

продолжить чтение

Седиментация для памяти ИИ-агентов: помнить главное, даже забывая детали

Большие языковые модели делают вид, что решают задачу памяти. На практике они решают задачу контекста: чтобы ответ был связным, модели нужна информация о том, что было сказано только что, час назад, в прошлой сессии.Индустрия справилась с этим блестяще. Контекстные окна выросли до сотен тысяч токенов. Retrieval-Augmented Generation подтягивает релевантные фрагменты из внешних баз. Векторные хранилища позволяют ИИ «помнить» переписку за годы.

продолжить чтение

123456...10...17