llm.
LLM передают ИИ в руки гуманитариев
Встреча с Богом (х/ф "Космическая Одиссея 2001")
Люди-архиваторы, или как работают обратные аналогии
Когда‑то я посмотрел очень полезное видео про ML, где для аналогии нейронной сети приводилось понятие архиватора. Помню меня это впечатлило и определённо расширило кругозор. Странно, почему тогда я сразу не перенёс это на людей — скорее всего потому, что принято брать мозг за эталон и с него примерять разные наряды на искусственные нейронные сети, а не наоборот.
Как найти своё призвание за два года, а не за десять
Сколько людей вы знаете, которые говорят: — Я работаю уже десять лет, но понимаю, что это вообще не моё. Это происходит постоянно. Человек учится в бакалавриате, устраивается на первую работу, несколько лет работает, понимает, что не нравится, пробует другое место, потом ещё одно… И только к 35-40 годам начинает осознавать, что ему действительно интересно. Проблема в том, что мир меняется слишком быстро, чтобы позволить себе такой долгий процесс поиска. Но что, если можно сжать этот путь до двух лет?
LARM: как мультимодальные LLM меняют рекомендации для live-стриминга
Рекомендательные системы уже давно стали привычной частью нашей жизни — от Netflix до YouTube и TikTok. Но есть один особый формат контента, где классические подходы начинают буксовать — живые трансляции (live-streaming).
MOEX_AutoML VS ИИ (LLM)
Специализация всё ещё ключевой фактор точности прогноза? Всем привет! Меня зовут Андрей Бугаенко, и в этой статье я расскажу, почему мы в Московской бирже считаем, что AutoML-подход, основанный на интеллектуальном выборе моделей и признаков (на примере MOEX_AutoML), эффективнее современных LLM в задачах численного прогнозирования.
Почему ИИ не смог заменить меня в n8n, но стал идеальным ассистентом
n8n — это мощный инструмент, который я, как и многие инженеры, полюбил за гибкость и простоту. Он позволяет собрать практически любую интеграцию, как из конструктора, но с возможностью в любой момент залезть «под капот» с кастомным JavaScript. Идеально.
LLM и их хрупкая логика: новое исследование ставит под сомнение Chain-of-Thought
Новое исследование учёных из Университета штата Аризона показывает: знаменитое «цепочечное рассуждение» (Chain-of-Thought, CoT) в больших языковых моделях (LLM) скорее похоже на «хрупкий мираж», чем на проявление подлинного интеллекта. Эта работа продолжает традицию критического анализа глубины рассуждений LLM, но в отличие от предыдущих исследований предлагает уникальный взгляд через призму «распределения данных», который позволяет понять, где и почему CoT систематически даёт сбой.Дисклеймер: это вольная адаптция
Пишем отчет о пентесте за 1 час на локальной LLM. Часть 1
В этой статье мы рассмотрим как на оборудовании стоимостью от 1000$, с полностью локальными LLM и VLM на основе скриншотов и коротких пояснений генерировать грамотно написанные отчеты об уязвимостях самого широкого спектра, начиная от Web/мобилок, заканчивая инфрастурктурными уязвимостями Active Directory, k8s и так далее. Заглянем под капот VLM (Vision Language Model) и рассмотрим различные подходы к описанию уязвимостей.
GPT-OSS-20B – 120B: Сухие цифры после реальных тестов
OpenAI выпустила GPT-OSS модели (https://huggingface.co/openai/gpt-oss-20b и https://huggingface.co/openai/gpt-oss-120b) , и сообщество немедленно начало экспериментировать. Но реальные бенчмарки производительности найти сложно. В этой статье представлены результаты нашего практического тестирования на арендованном железе через RunPod с использованием Ollama.Ремарка: Тесты проводились на Ollama для быстрого деплоя. Если будете использовать vLLM, то производительность будет примерно +30%, но он слабо адаптирован под консьюмерские GPU, за исключением RTX 5090. Что тестировалось:

