llm.
Как найти своё призвание за два года, а не за десять
Сколько людей вы знаете, которые говорят: — Я работаю уже десять лет, но понимаю, что это вообще не моё. Это происходит постоянно. Человек учится в бакалавриате, устраивается на первую работу, несколько лет работает, понимает, что не нравится, пробует другое место, потом ещё одно… И только к 35-40 годам начинает осознавать, что ему действительно интересно. Проблема в том, что мир меняется слишком быстро, чтобы позволить себе такой долгий процесс поиска. Но что, если можно сжать этот путь до двух лет?
LARM: как мультимодальные LLM меняют рекомендации для live-стриминга
Рекомендательные системы уже давно стали привычной частью нашей жизни — от Netflix до YouTube и TikTok. Но есть один особый формат контента, где классические подходы начинают буксовать — живые трансляции (live-streaming).
MOEX_AutoML VS ИИ (LLM)
Специализация всё ещё ключевой фактор точности прогноза? Всем привет! Меня зовут Андрей Бугаенко, и в этой статье я расскажу, почему мы в Московской бирже считаем, что AutoML-подход, основанный на интеллектуальном выборе моделей и признаков (на примере MOEX_AutoML), эффективнее современных LLM в задачах численного прогнозирования.
Почему ИИ не смог заменить меня в n8n, но стал идеальным ассистентом
n8n — это мощный инструмент, который я, как и многие инженеры, полюбил за гибкость и простоту. Он позволяет собрать практически любую интеграцию, как из конструктора, но с возможностью в любой момент залезть «под капот» с кастомным JavaScript. Идеально.
LLM и их хрупкая логика: новое исследование ставит под сомнение Chain-of-Thought
Новое исследование учёных из Университета штата Аризона показывает: знаменитое «цепочечное рассуждение» (Chain-of-Thought, CoT) в больших языковых моделях (LLM) скорее похоже на «хрупкий мираж», чем на проявление подлинного интеллекта. Эта работа продолжает традицию критического анализа глубины рассуждений LLM, но в отличие от предыдущих исследований предлагает уникальный взгляд через призму «распределения данных», который позволяет понять, где и почему CoT систематически даёт сбой.Дисклеймер: это вольная адаптция
Пишем отчет о пентесте за 1 час на локальной LLM. Часть 1
В этой статье мы рассмотрим как на оборудовании стоимостью от 1000$, с полностью локальными LLM и VLM на основе скриншотов и коротких пояснений генерировать грамотно написанные отчеты об уязвимостях самого широкого спектра, начиная от Web/мобилок, заканчивая инфрастурктурными уязвимостями Active Directory, k8s и так далее. Заглянем под капот VLM (Vision Language Model) и рассмотрим различные подходы к описанию уязвимостей.
GPT-OSS-20B – 120B: Сухие цифры после реальных тестов
OpenAI выпустила GPT-OSS модели (https://huggingface.co/openai/gpt-oss-20b и https://huggingface.co/openai/gpt-oss-120b) , и сообщество немедленно начало экспериментировать. Но реальные бенчмарки производительности найти сложно. В этой статье представлены результаты нашего практического тестирования на арендованном железе через RunPod с использованием Ollama.Ремарка: Тесты проводились на Ollama для быстрого деплоя. Если будете использовать vLLM, то производительность будет примерно +30%, но он слабо адаптирован под консьюмерские GPU, за исключением RTX 5090. Что тестировалось:
AI-ученые уже здесь: Большой тур по LLM, которые меняют фундаментальную науку
Мы живем в удивительное время. Прямо на наших глазах происходит фундаментальный сдвиг в самом научном методе — сдвиг, сопоставимый по значимости с изобретением микроскопа, открывшего мир невидимого, или появлением компьютера, давшего нам силу вычислений. Искусственный интеллект стремительно перестает быть просто инструментом, послушным калькулятором в руках исследователя, и превращается в нечто большее — в полноценного партнера по открытиям.

