llm-модели. - страница 2

Grep-AST или Как мы заменили векторный поиск всего одной библиотекой

Всем привет! На связи София из команды применения больших языковых моделей ecom.tech

продолжить чтение

Битва агентов: как мы запустили автономный трейдинг на GPT-5.2, Claude 4.5 и DeepSeek в «Финам Арене»

Может ли современная LLM не просто «галлюцинировать» графиками, а реально управлять капиталом в условиях неопределенности? Мы в команде Trade API «Финама» решили прекратить споры и запустили «Финам Арену» — масштабный эксперимент по автономному трейдингу.Мы создали среду, в которой 6 топовых моделей сражаются друг с другом и с рыночными индексами в реальном времени. Без сантиментов и подсказок — только API и промпты.Гладиаторы: ростер 2026 годаВ этом забеге участвуют тяжеловесы, каждый со своей «философией» логики:Claude 4.5 Sonnet (Anthropic) — надеемся на его осторожность и глубокий контекст.

продолжить чтение

End-to-End беспилотник на VLM в домашних условиях. Часть 2

ВведениеВо второй части — практическая часть проекта: установка и первый запуск, эксперименты по созданию идеального промпта, а также попытки добавить «память» о прошлом шаге. Промпт теперь не содержит жестких инструкций поведения и работает быстрее! В конце - переход от симуляции к реальному роверу: сборка, настройка и проверка работы на железе.Первая часть тутА весь код тутУстановка и первый запуск на хостеУстановка происходит просто, командой ./host.sh

продолжить чтение

Полноценный GPT в 243 строках Python от Andrej Karpathy

Andrej Karpathy только что создал полноценный GPT в 243 строках PythonАннотация: В феврале 2026 года известный исследователь ИИ Андрей Карпати опубликовал проект microGPT — минималистичную реализацию трансформера, обучающуюся и выполняющую инференс всего в 243 строках чистого Python без внешних зависимостей. Этот «арт-проект» демонстрирует фундаментальные математические принципы работы больших языковых моделей, делая архитектуру GPT прозрачной и доступной для изучения. ]Краткое содержаниеАспектОписаниеАвтор проекта

продолжить чтение

Машинный перевод. Как развивалась технология

Машинный перевод - это одно из самых удивительных достижений ИИ. Под этим термином понимают автоматический перевод текста с одного языка на другой с помощью компьютерных алгоритмов. Несколько десятилетий назад  сама идея о том, что компьютер или программа может переводить тексты с одного языка на другой, казалась настоящей фантастикой. Меня зовут Алексей Рудак, я основатель компании Lingvanex

продолжить чтение

ИИ-геополитика 2026: смерть аутсорсинга, 1 ГВт для OpenAI и китайский вызов от Alibaba

На прошлой неделе в Нью-Дели завершился India AI Impact Summit 2026. Это событие стало маркером тектонического сдвига: фокус ИИ-индустрии окончательно смещается в сторону Глобального Юга. Пока регуляторы в ЕС и США буксуют в судебных исках, Индия превращается из «мировой бэк-офис фермы» в крупнейший полигон для обкатки ИИ-инфраструктуры.Революция «с человеческим лицом» или конец эпохи джунов?

продолжить чтение

Какие LLM потянет ваше железо?

Всем привет,Продолжаю разбираться с ИИ - вычислениями ...Спасибо t.me/prog_stuff за наводку на llm-checker — CLI, который сканирует железо и говорит, какие модели потянет Ollama. Сканирует GPU, RAM, CPU и оценивает каждую модель по скорости, качеству и совместимости. 35+ моделей от 1B до 32B, список модерируется вручную.Ссылка репозитарий на GitHub, установка командой: npm install -g llm-checker.Проверил на своем MacAir (M1, 16 Гб), получил такую рекомендацию - qwen2.5 - coder, 7B. Буду пробовать.

продолжить чтение

Распознавание изображений локальными LLM

Читая HABR, наткнулся на статью про мышление больших моделей и их способности распознавания изображений. И у меня возникла идея небольшого теста одной имеющейся у меня модели LLM, которая умеет распозновать фото, а именно llama4:16x17b НО запущенной полностью локально. Весит эта модель 67 гигабайт, если интересно на чем она была запущена отвечу в комментариях.На написание статьи меня подвинул один из комментариев - "а как интересно нейросеть распознает разные типы животных"

продолжить чтение

Как стать программистом: от Intel 286 до Large Language Models

ВведениеВ середине 90‑х я получил первый домашний компьютер — IBM‑совместимую машинку на процессоре Intel 286. Установка Windows требовала кучу дискет, а жёсткий диск вмещал «весь» 20‑30 МБ. Информация тогда хранилась в бумажных книгах и в полках библиотек. Сейчас, спустя почти три десятилетия, обучение программированию выглядит совершенно иначе. Ниже я расскажу, как менялись возможности обучения, и почему сейчас Large Language Models (LLM) могут стать вашим личным наставником. 1. 1990‑е: поиск знаний в библиотекеКак всё начиналось

продолжить чтение

Как векторные базы данных налаживают взаимопонимание между человечеством и роботами

В 2026 году генеративные модели на основе искусственного интеллекта не всегда понимают, что просил пользователь, и выдают нерелевантные ответы. Векторные базы данных помогают ИИ распознавать смысл, который человек вкладывает в запрос, и быстрее находить нужную информацию.Если в вашем проекте пользователи ищут данные не по точным ключевым запросам, а по смыслу, эта статья для вас. В ней мы расскажем, как работают векторные базы данных, для каких проектов они нужны и как выбрать подходящую в зависимости от задач.

продолжить чтение

Rambler's Top100