llm. - страница 129

llm.

HAI LLM: Как DeepSeek снизил стоимость обучения и генерации в разы без потери качества?

Работу у AI отобрал другой AI )Компания HighFlyer внедрила в свою LLM такие архитектурные фишки как Multi-Head Latent Attention, Mixture of Experts (MoE) with Auxiliary-Loss-Free Load Balancing и Multi-Token Predict. Однако все эти новшества уже были ранее представлены в других LLM: GPT-4, Llama, Mistrall и других.Полистав

продолжить чтение

Многопользовательский рой агентов для Ollama

В данной статье осуществлен разбор многопользовательского телеграм чат бота на LLM, код которого опубликован в этом репозиторииКуда движется рынокКогда-то давным давно графический пользовательский интерфейс сменил консольный ввод. Казалось бы, проблему неудобства взаимодействия для неподготовленного пользователя мог бы решить псевдографический интерфейс, но есть фактор, который не все замечают

продолжить чтение

Недостатки искусственного интеллекта: взгляд изнутри и что мы можем увидеть снаружи. Кому нужен божественный ИИ

Я спросил какой-то чат не-GPT про недостатки исскуственного интеллекта (далее ИИ) и он мне выдал бодрый ответ за который в старших классах наверняка бы поставили пятерку. Но человека отличает наличие собственного мнения которое он стремится защищать даже когда его напрямую не подвергают сомнению, то есть мы умеем отвечать или даже возражать не на прямые вопросы с подвохом или без, но даже на сторонние казалось бы нейтральные рассуждения. Мы способны анализировать и находить то что разрушает наше мировозрение и возражать на это.Как вы думаете что спорного или даже плохого можно найти в такой формулировке от машины:

продолжить чтение

99 вкладок браузера или «Бесконечность — не предел!»

Хабр, привет! Представьте: вы открываете браузер и... 99 вкладок, хаос, поиск той самой нужной страницы превращается в квест. Мы, команда ИИнтеграция, столкнулись с этим лично, и именно так родился HoundApp — интеллектуальный ассистент, который призван помочь навести порядок.Всё началось с магистратуры магистратуры AI Talent Hub от ИТМО x Napoleon IT

продолжить чтение

Всё, что я узнал о запуске локальных языковых моделей

В мире, где облачные решения диктуют свои правила, локальные модели дают свободу — полную приватность, работу офлайн и отсутствие ограничений. Эта статья для тех, кто хочет впервые попробовать самостоятельно запустить LLM на своем компьютере.

продолжить чтение

Energy-based diffusion language models — откуда берутся, зачем нужны и как работают

продолжить чтение

Что такое DeepSeek и на что способна китайская нейросеть, из-за которой OpenAI снизил цену на ChatGPT

DeepSeek взорвал рынок нейросетейСтандартный сценарий выхода новой нейросети обычно включает в себя громкие заявления, масштабную рекламную кампанию и последующее разочарование пользователей. Так было с Apple Intelligence, Galaxy AI и даже Google Gemini. Но китайская DeepSeek

продолжить чтение

Применение LLM + RAG для диалоговых систем в службе поддержки

Автоматизация клиентской поддержки с помощью больших языковых моделей — перспективное направление, но без доработки они не всегда способны дать точные и релевантные ответы. Меня зовут Михаил Крюков, технический директор платформы Robovoice (SL Soft), и в этой статье я расскажу, как усиливать LLM с помощью RAG.

продолжить чтение

Чем Grok лучше ChatGPT: изучаем базовые преимущества нейросети Илона Маска

Grok и правда очень хорош. Grok, разработанный компанией Илона Маска xAI, – относительно новый игрок на рынке чат-ботов. Но довольно быстро стало понятно, что это не просто еще один генеративный ИИ

продолжить чтение

Мануал по запуску полной модели DeepSeek-R1 локально (бюджет ~6k$)

тут не будет сгенерированных ИИшечкой картинок, пеинт рулит :)Давеча наткнулся в экс-Твиттере на интересный тред (https://x.com/carrigmat/status/1884244369907278106?s=52) о том, как запустить самую мощную (на сегодня) ИИ reasoning модель DeepSeek-R1 прямо у себя под столом.

продолжить чтение

Rambler's Top100