llama 3.3 70B.

Локальная LLM: гадкий утенок в мире прекрасных лебедей

Сравнительный анализ локальных и облачных LLMВсем привет! Я — Иван, инженер по разработке AI-систем CodeInside. Мы разрабатываем и внедряем кастомные AI-решения — от интеллектуальных поисковых систем на основе RAG до специализированных AI-агентов и ассистентов для автоматизации процессов в бизнесе и промышленности.

продолжить чтение

Свой ChatGPT на документах: делаем RAG с нуля

Всем привет! Наверняка у вас были ситуации, когда нужно быстро найти что-то в длинном документе-договоре, инструкции или отчёте. Сегодня я покажу, как сделать своего помощника, который будет отвечать на такие вопросы автоматически. Соберем RAG с нуля: загрузим документы, "нарежем" их на куски, проиндексируем в Qdrant и подключим LLaMA через Amvera Inference.Если вы увидели незнакомые слова — не пугайтесь, далее я расскажу об этом подробно.Самое главное, что всё это работает самостоятельно, без зависимости от OpenAI.RAG - что это?

продолжить чтение

Rambler's Top100