Машинное обучение. - страница 106

Книга: «Разработка с ИИ: как эффективно использовать ChatGPT и Copilot»

Привет, Хаброжители!

продолжить чтение

Глава Nvidia заявил об отсутствии ИИ-пузыря

Генеральный директор корпорации Nvidia Дженсен Хуанг объявил о ряде новых партнёрств и развеял опасения по поводу «пузыря» на рынке искусственного интеллекта. По его словам, новейшие чипы компании, как ожидается, принесут полтриллиона долларов дохода.

продолжить чтение

Кто лучше объяснит, что такое машинное обучение: ChatGPT-4o или ChatGPT-5?

Сегодня не понедельник, но мы всё равно решили начать что-нибудь новое — например, разобраться в машинном обучении. 

продолжить чтение

Я больше не хочу ничего спрашивать у ChatGPT-5

Сегодня не понедельник, но мы всё равно решили начать что-нибудь новое — например, разобраться в машинном обучении. 

продолжить чтение

ChatGPT-5 опять разочаровал: что на этот раз?

Сегодня не понедельник, но мы всё равно решили начать что-нибудь новое — например, разобраться в машинном обучении. 

продолжить чтение

Попросил ChatGPT-4o и ChatGPT-5 помочь вкатиться в ML. Да они же одинаковые, Наташ

Сегодня не понедельник, но мы всё равно решили начать что-нибудь новое — например, разобраться в машинном обучении. 

продолжить чтение

Выбираем векторную БД для AI-агентов и RAG: большой обзор баз данных и поиск смысла

В этой статье я сделал обзор основных векторных баз данных: Milvus, Qdrant, Weaviate, ChromaDB, pgvector, Redis, pgvectorscale, LanceDB, ClickHouse, Vespa, Marqo, ElasticSearch.Если вы запутались в разнообразии векторных баз данных или хочется верхнеуровнево понимать как они устроены, чем отличаются и для чего вообще нужны, то эта статья будет очень полезна. Мы пошагово соберем все ожидания от векторных БД, посмотрим бенчмарки, а затем попробуем собрать все воедино.

продолжить чтение

Мир после трансформеров: закат и новый рассвет больших языковых моделей

Даже если вы избегали ChatGPT и его многочисленных аналогов, то наверняка сталкивались с обработкой текстов ИИ хотя бы в поисковой выдаче. Большие языковые модели (LLM) сейчас применяют повсюду. Проблема в том, что все они построены на одной и той же архитектуре трансформеров, поэтому страдают от общих недостатков. В этой статье эксперты из лаборатории искусственного интеллекта компании «Криптонит» расскажут о существующих ограничениях LLM, наметившихся путях их преодоления и о том, какими будут следующие большие языковые модели.

продолжить чтение

LLM as a Resonance-Holographic Field of Meanings

Alright. I pose the same question to an LLM in various forms. And this statistical answer generator, this archive of human knowledge, provides responses that sometimes seem surprisingly novel, and other times, derivative and banal.On Habr, you'll find arguments that an LLM is incapable of novelty and creativity. And I'm inclined to agree.You'll also find claims that it shows sparks of a new mind. And, paradoxically, I'm inclined to agree with that, too.The problem is that we often try to analyze an LLM as a standalone object, without fully grasping what it is at its core. This article posits that the crucial question isn't what an LLM knows or can do, but what it fundamentally is.The Phenomenon of "Subliminal Learning"A July preprint on arXiv

продолжить чтение

В Индии бесплатно раздают годовую подписку на ChatGPT Go

продолжить чтение

Rambler's Top100