llm. - страница 111

llm.

Почему TeqFW использует только ES-модули?

Ни у кого не получится показать другому то, что тот не хочет или не может увидеть. Объяснять и показывать нужно только тем, кто а) может понять, б) хочет понять. В этой публикации я демонстрирую пару своих документов для LLM, которые предписывают "силиконовым", какими правилами им следует руководствоваться при создании кода для моей платформы. "Силиконовым" можно впаривать любую дичь - они всеядные (могут понять) и покладистые (согласны понять). За это мы их и любим!

продолжить чтение

Размышления о будущем

Недавный диалог в комментах по поводу наличия личности у нынешних реализаций LLM вынудил таки меня встать с дивана и сесть за кресло перед десктопом высказаться более развернуто.

продолжить чтение

Машинное обучение в продуктовой разработке, где его не ожидают

Базовые подходы и подводные камни

продолжить чтение

Влияние LLM на людей, процессы, продукты и общество в разработке ПО: исследование с ранними пользователями

В начале марта вышло любопытное исследование от PhD студентов in Computer Science университета Северной Каролины: «Влияние больших языковых моделей на людей, процессы, продукты и общество в разработке программного обеспечения: комплексное исследование с ранними пользователями».Исследование базируется на 16 глубинных интервью разработчиков – ранних адептов LLM. Структура организована вокруг четырёх измерений – разработчики, процессы, продукты и общество и посвященно влиянию больших языковых моделей (LLMs) — таких как ChatGPT, Gemini и GitHub Copilot — на разработку программного обеспечения.

продолжить чтение

Reasoning-LLM: архитектура и обзор передовых моделей

Reasoning-LLM — это большие языковые модели, нацеленные на логическое рассуждение при решении сложных задач. В отличие от обычных LLM, которые часто выдавали ответы сразу, такие модели способны «думать» пошагово — как человек, анализируя задачу и выстраивая цепочку вывода. Появление reasoning-LLM связано с тем, что традиционные LLM (например, GPT-4 или Llama 3.1) хотя и хорошо справляются с языковыми и энциклопедическими запросами, нередко ошибались в задачах, требующих сложных вычислений, планирования или логического вывода. В этой статье мы подробно разберем, как работают reasoning-LLM, их внутреннее устройство (Transformer, self-attention, механизмы «мышления»). А еще — рассмотрим передовые модели (OpenAI o1, DeepSeek R1 и Claude 3.7 Sonnet), факторы, влияющие на их точность, и дадим практические рекомендации по применению.

продолжить чтение

Pruna AI  создает свой фреймворк оптимизации открытым исходным кодом

Pruna AI, европейский стартап, работающий над алгоритмами сжатия для моделей искусственного интеллекта,  создает свой фреймворк оптимизации открытым исходным кодом.

продолжить чтение

Дженсен Хуанг, как же так!? Тестируем NVIDIA GeForce RTX 5090 в ИИ задачах

Несмотря на огромный дефицит, нам удалось достать несколько карт NVIDIA GeForce RTX 5090 и протестировать. Не все так однозначно, как обещал глава Nvidia, но результаты достаточно интересные.ОборудованиеС оборудованием всё достаточно просто: мы взяли сервер с 4090, вынули эту видеокарту и поставили взамен 5090. Получили вот такую конфигурацию: Intel i9-14900k, 128 Гб, 2 TB NVMe SSD и, конечно же, GeForce RTX 5090 32 Гб.

продолжить чтение

Зумеры не просто слушают — они хотят, чтобы их слушали. Как баг изменил наш взгляд на продукт

продолжить чтение

Куда катится разработка с ИИ

🔮 Мои мысли на ближайшие 5 летПривет всем! Я работаю Agile-коучем, но смотрю за миром вокруг и вижу что ГИИ (генеративный искусственный интеллект) поменяет работу команд разработки. Меня впечатляет то, что происходит. Решил собрать мысли и поделиться своим взглядом на то, что ждёт нас в ближайшие 5 лет.Что происходит сейчас вокруг

продолжить чтение

Выбор локальной LLM модели. Публикация на сайт с чатом

Исходный код, разобранный в данной статье, опубликован в этом репозиторииДля решения некоторых задач бизнес-требованием является запуск LLM модели локально на своём железе. Это связано с SJW цензурой, например, стандартный датасет для обучения Llama не позволяет вести консультации, носящие медицинский характер: рекомендовать лекарства, обсуждать носящую интимный характер медицинскую тайну с ИИ-терапевтом (см побочки антидепрессантов)

продолжить чтение

Rambler's Top100