Как выбрать LLM-модель, которая заберет у вас работу
Пока одни спорят, заменит ли ИИ людей, другие уже выбирают, какую нейросеть поставить себе в напарники. ChatGPT, Claude, Mistral, а еще китайские модели, которые неожиданно набирают популярность — надо бы разобраться в этом хаосе.Не стоит полагаться только на отзывы или случайные тесты. Разбираемся, по каким критериям действительно стоит оценивать LLM, чтобы выбрать мощную и полезную модель, а не просто хорошо обученного бота.По каким параметрам оценивать языковые модели
Комплексное руководство по конфигурации сервера для LLM
Привет, Хабр! Развертывание языковой модели на собственном сервере требует тщательного планирования аппаратной составляющей. В этой статье мы разберем, какие компоненты критически важны для эффективной работы LLM, как они взаимодействуют, и какую конфигурацию выбрать под разные сценарии использования.
Модели T-lite и T-pro: training report
Привет! Я Дима Стоянов, MLE в команде разработки фундаментальных моделей. Мы продолжаем рассказывать о наших моделях T-lite и T-pro. Общие характеристики и результаты бенчмарков описывали в предыдущей публикации. В этой статье раскроем детали предобучения: от подготовки данных до финальных экспериментов, а совсем скоро поделимся особенностями этапа post-training.
Hugging Face Tutorial: Unleashing the Power of AI and Machine Learning
In this article, I'll take you through everything you need to know about Hugging Face—what it is, how to use it, and why it's a game-changer in the ever-evolving landscape of artificial intelligence. Whether you're a seasoned data scientist or an enthusiastic beginner eager to dive into AI, the insights shared here will equip you with the knowledge to Hugging Face's full potential.What is Hugging Face?What is Hugging Face?
Настройка PostgreSQL для LLM
Итак, в этой статье я расскажу, как эффективно настроить PostgreSQL, чтобы вам было проще работать с большими языковыми моделями.Пока звучит странно, не правда ли? Что я имею в виду? Я имею в виду повышение эффективности создания любых SQL-запросов в базу данных с использованием LLM (ChatGPT, DeepSeek, Llama и других).Метод, о котором пойдет речь, до безобразия прост и от этого гениален. После прочтения этой статьи вы сможете самостоятельно или в рамках вашей компании увеличить скорость формирования SQL-запросов в 50 раз!
ИИ-модели научили играть в «Мафию» друг с другом в рамках открытого проекта
Разработчик с ником Guzus представил сайт, где большие языковые модели могут сыграть в игру «Мафия». Ресурс предлагает турнирную таблицу с результатами игр и распределением ролей, а также их стенограммы.
Русскоязычные LLM: отечественные разработки в сравнении с глобальными адаптациями
Современные языковые модели (они же LLM, они же Large Language Models) становятся все более востребованными практически во всех сферах. LLM уже не просто инструмент, а важнейшая часть технологического прогресса, позволяющая автоматизировать работу с текстами, проводить анализ данных, генерировать контент и даже серьезно помогать в обучении.
Квантизация
Автор статьи: Марк Блуменау - Сотрудник научно-исследовательских институтов ФИАН, ИЗМИРАН, ИФТТ, преподаватель Школы Высшей Математики
Важность времени на размышления: как работают вычисления во время инференса
Еще в 2020 году в статье о GPT-3 появился график, заслуживающий отдельного внимания: чем больше языковые модели, тем лучше они справляются с задачами без дообучения (zero-shot). Пять лет этот график был путеводной звездой для исследователей ИИ, влияя на всё — от архитектуры моделей до разработки железа. C выпуском o1 OpenAI пришел с новым графиком. На этот раз речь не только о размере — а о том, чтобы дать моделям время думать. Новый график показывает: увеличение вычислительных ресурсов на этапе вывода

