llm. - страница 69

llm.

Происхождение духов: как естественный отбор работает в мире информационных сущностей, и причём тут LLM и кибернетика

Как мы обычно представляем себе духов

продолжить чтение

Как я собрал AI-ассистента для отца с больным сердцем: Tool-Calling RAG Pipeline на GPT-4o-mini без LangChain

🚀 Идея, Которая Важнее КодаМой отец — человек, переживший несколько сложнейших операций на сердце. Жизнь с хроническим заболеванием — это бесконечный поток анализов, заключений и схем приёма лекарств. Находясь далеко (я живу во Вьетнаме), я постоянно волновался: не забудет ли он про дозу, правильно ли понял назначение, задал ли все нужные вопросы врачу?Мне нужен был не просто бот-напоминалка, а второй пилот — умный, конфиденциальный и мультимодальный AI-Кардиолог. Ассистент, который знает его анамнез наизусть, понимает голосовые команды и может "прочитать" фотографию свежего анализа.

продолжить чтение

Due Diligence с LLM: Разбор Акций МТС

Этот материал — практический кейс, навеянный статьей от сотрудников BlackRock и материалом, который освещал эту новость на Хабресхема взаимодействия агентовВступление: Зачем нужен системный подход

продолжить чтение

ChatGPT-5 опять разочаровал: что на этот раз?

Сегодня не понедельник, но мы всё равно решили начать что-нибудь новое — например, разобраться в машинном обучении. 

продолжить чтение

Кто лучше объяснит, что такое машинное обучение: ChatGPT-4o или ChatGPT-5?

Сегодня не понедельник, но мы всё равно решили начать что-нибудь новое — например, разобраться в машинном обучении. 

продолжить чтение

Попросил ChatGPT-4o и ChatGPT-5 помочь вкатиться в ML. Да они же одинаковые, Наташ

Сегодня не понедельник, но мы всё равно решили начать что-нибудь новое — например, разобраться в машинном обучении. 

продолжить чтение

Я больше не хочу ничего спрашивать у ChatGPT-5

Сегодня не понедельник, но мы всё равно решили начать что-нибудь новое — например, разобраться в машинном обучении. 

продолжить чтение

Выбираем векторную БД для AI-агентов и RAG: большой обзор баз данных и поиск смысла

В этой статье я сделал обзор основных векторных баз данных: Milvus, Qdrant, Weaviate, ChromaDB, pgvector, Redis, pgvectorscale, LanceDB, ClickHouse, Vespa, Marqo, ElasticSearch.Если вы запутались в разнообразии векторных баз данных или хочется верхнеуровнево понимать как они устроены, чем отличаются и для чего вообще нужны, то эта статья будет очень полезна. Мы пошагово соберем все ожидания от векторных БД, посмотрим бенчмарки, а затем попробуем собрать все воедино.

продолжить чтение

Мир после трансформеров: закат и новый рассвет больших языковых моделей

Даже если вы избегали ChatGPT и его многочисленных аналогов, то наверняка сталкивались с обработкой текстов ИИ хотя бы в поисковой выдаче. Большие языковые модели (LLM) сейчас применяют повсюду. Проблема в том, что все они построены на одной и той же архитектуре трансформеров, поэтому страдают от общих недостатков. В этой статье эксперты из лаборатории искусственного интеллекта компании «Криптонит» расскажут о существующих ограничениях LLM, наметившихся путях их преодоления и о том, какими будут следующие большие языковые модели.

продолжить чтение

LLM as a Resonance-Holographic Field of Meanings

Alright. I pose the same question to an LLM in various forms. And this statistical answer generator, this archive of human knowledge, provides responses that sometimes seem surprisingly novel, and other times, derivative and banal.On Habr, you'll find arguments that an LLM is incapable of novelty and creativity. And I'm inclined to agree.You'll also find claims that it shows sparks of a new mind. And, paradoxically, I'm inclined to agree with that, too.The problem is that we often try to analyze an LLM as a standalone object, without fully grasping what it is at its core. This article posits that the crucial question isn't what an LLM knows or can do, but what it fundamentally is.The Phenomenon of "Subliminal Learning"A July preprint on arXiv

продолжить чтение

Rambler's Top100