Битва агентов: как мы запустили автономный трейдинг на GPT-5.2, Claude 4.5 и DeepSeek в «Финам Арене»
Может ли современная LLM не просто «галлюцинировать» графиками, а реально управлять капиталом в условиях неопределенности? Мы в команде Trade API «Финама» решили прекратить споры и запустили «Финам Арену» — масштабный эксперимент по автономному трейдингу.Мы создали среду, в которой 6 топовых моделей сражаются друг с другом и с рыночными индексами в реальном времени. Без сантиментов и подсказок — только API и промпты.Гладиаторы: ростер 2026 годаВ этом забеге участвуют тяжеловесы, каждый со своей «философией» логики:Claude 4.5 Sonnet (Anthropic) — надеемся на его осторожность и глубокий контекст.
End-to-End беспилотник на VLM в домашних условиях. Часть 2
ВведениеВо второй части — практическая часть проекта: установка и первый запуск, эксперименты по созданию идеального промпта, а также попытки добавить «память» о прошлом шаге. Промпт теперь не содержит жестких инструкций поведения и работает быстрее! В конце - переход от симуляции к реальному роверу: сборка, настройка и проверка работы на железе.Первая часть тутА весь код тутУстановка и первый запуск на хостеУстановка происходит просто, командой ./host.sh
Полноценный GPT в 243 строках Python от Andrej Karpathy
Andrej Karpathy только что создал полноценный GPT в 243 строках PythonАннотация: В феврале 2026 года известный исследователь ИИ Андрей Карпати опубликовал проект microGPT — минималистичную реализацию трансформера, обучающуюся и выполняющую инференс всего в 243 строках чистого Python без внешних зависимостей. Этот «арт-проект» демонстрирует фундаментальные математические принципы работы больших языковых моделей, делая архитектуру GPT прозрачной и доступной для изучения. ]Краткое содержаниеАспектОписаниеАвтор проекта
Машинный перевод. Как развивалась технология
Машинный перевод - это одно из самых удивительных достижений ИИ. Под этим термином понимают автоматический перевод текста с одного языка на другой с помощью компьютерных алгоритмов. Несколько десятилетий назад сама идея о том, что компьютер или программа может переводить тексты с одного языка на другой, казалась настоящей фантастикой. Меня зовут Алексей Рудак, я основатель компании Lingvanex
ИИ-геополитика 2026: смерть аутсорсинга, 1 ГВт для OpenAI и китайский вызов от Alibaba
На прошлой неделе в Нью-Дели завершился India AI Impact Summit 2026. Это событие стало маркером тектонического сдвига: фокус ИИ-индустрии окончательно смещается в сторону Глобального Юга. Пока регуляторы в ЕС и США буксуют в судебных исках, Индия превращается из «мировой бэк-офис фермы» в крупнейший полигон для обкатки ИИ-инфраструктуры.Революция «с человеческим лицом» или конец эпохи джунов?
Какие LLM потянет ваше железо?
Всем привет,Продолжаю разбираться с ИИ - вычислениями ...Спасибо t.me/prog_stuff за наводку на llm-checker — CLI, который сканирует железо и говорит, какие модели потянет Ollama. Сканирует GPU, RAM, CPU и оценивает каждую модель по скорости, качеству и совместимости. 35+ моделей от 1B до 32B, список модерируется вручную.Ссылка репозитарий на GitHub, установка командой: npm install -g llm-checker.Проверил на своем MacAir (M1, 16 Гб), получил такую рекомендацию - qwen2.5 - coder, 7B. Буду пробовать.
Распознавание изображений локальными LLM
Читая HABR, наткнулся на статью про мышление больших моделей и их способности распознавания изображений. И у меня возникла идея небольшого теста одной имеющейся у меня модели LLM, которая умеет распозновать фото, а именно llama4:16x17b НО запущенной полностью локально. Весит эта модель 67 гигабайт, если интересно на чем она была запущена отвечу в комментариях.На написание статьи меня подвинул один из комментариев - "а как интересно нейросеть распознает разные типы животных"
Как стать программистом: от Intel 286 до Large Language Models
ВведениеВ середине 90‑х я получил первый домашний компьютер — IBM‑совместимую машинку на процессоре Intel 286. Установка Windows требовала кучу дискет, а жёсткий диск вмещал «весь» 20‑30 МБ. Информация тогда хранилась в бумажных книгах и в полках библиотек. Сейчас, спустя почти три десятилетия, обучение программированию выглядит совершенно иначе. Ниже я расскажу, как менялись возможности обучения, и почему сейчас Large Language Models (LLM) могут стать вашим личным наставником. 1. 1990‑е: поиск знаний в библиотекеКак всё начиналось

