llm. - страница 151

llm.

Как найти своё призвание за два года, а не за десять

Сколько людей вы знаете, которые говорят: — Я работаю уже десять лет, но понимаю, что это вообще не моё. Это происходит постоянно. Человек учится в бакалавриате, устраивается на первую работу, несколько лет работает, понимает, что не нравится, пробует другое место, потом ещё одно… И только к 35-40 годам начинает осознавать, что ему действительно интересно. Проблема в том, что мир меняется слишком быстро, чтобы позволить себе такой долгий процесс поиска. Но что, если можно сжать этот путь до двух лет?

продолжить чтение

LARM: как мультимодальные LLM меняют рекомендации для live-стриминга

Рекомендательные системы уже давно стали привычной частью нашей жизни — от Netflix до YouTube и TikTok. Но есть один особый формат контента, где классические подходы начинают буксовать — живые трансляции (live-streaming).

продолжить чтение

MOEX_AutoML VS ИИ (LLM)

Специализация всё ещё ключевой фактор точности прогноза? Всем привет! Меня зовут Андрей Бугаенко,  и в этой статье я расскажу, почему мы в Московской бирже считаем, что AutoML-подход, основанный на интеллектуальном выборе моделей и признаков (на примере MOEX_AutoML), эффективнее современных LLM в задачах численного прогнозирования.

продолжить чтение

Хватит тестировать в лаборатории: Inclusion Arena показывает, как LLM работают в реальности

продолжить чтение

Почему ИИ не смог заменить меня в n8n, но стал идеальным ассистентом

n8n — это мощный инструмент, который я, как и многие инженеры, полюбил за гибкость и простоту. Он позволяет собрать практически любую интеграцию, как из конструктора, но с возможностью в любой момент залезть «под капот» с кастомным JavaScript. Идеально.

продолжить чтение

LLM и их хрупкая логика: новое исследование ставит под сомнение Chain-of-Thought

Новое исследование учёных из Университета штата Аризона показывает: знаменитое «цепочечное рассуждение» (Chain-of-Thought, CoT) в больших языковых моделях (LLM) скорее похоже на «хрупкий мираж», чем на проявление подлинного интеллекта. Эта работа продолжает традицию критического анализа глубины рассуждений LLM, но в отличие от предыдущих исследований предлагает уникальный взгляд через призму «распределения данных», который позволяет понять, где и почему CoT систематически даёт сбой.Дисклеймер: это вольная адаптция 

продолжить чтение

Пишем отчет о пентесте за 1 час на локальной LLM. Часть 1

В этой статье мы рассмотрим как на оборудовании стоимостью от 1000$, с полностью локальными LLM и VLM на основе скриншотов и коротких пояснений генерировать грамотно написанные отчеты об уязвимостях самого широкого спектра, начиная от Web/мобилок, заканчивая инфрастурктурными уязвимостями Active Directory, k8s и так далее. Заглянем под капот VLM (Vision Language Model) и рассмотрим различные подходы к описанию уязвимостей.

продолжить чтение

GPT-OSS-20B – 120B: Сухие цифры после реальных тестов

OpenAI выпустила GPT-OSS модели (https://huggingface.co/openai/gpt-oss-20b и https://huggingface.co/openai/gpt-oss-120b) , и сообщество немедленно начало экспериментировать. Но реальные бенчмарки производительности найти сложно. В этой статье представлены результаты нашего практического тестирования на арендованном железе через RunPod с использованием Ollama.Ремарка: Тесты проводились на Ollama для быстрого деплоя. Если будете использовать vLLM, то производительность будет примерно +30%, но он слабо адаптирован под консьюмерские GPU, за исключением RTX 5090. Что тестировалось:

продолжить чтение

AI-помощник на запястье: как мы сделали умные часы с YandexGPT

продолжить чтение

AI-ученые уже здесь: Большой тур по LLM, которые меняют фундаментальную науку

Мы живем в удивительное время. Прямо на наших глазах происходит фундаментальный сдвиг в самом научном методе — сдвиг, сопоставимый по значимости с изобретением микроскопа, открывшего мир невидимого, или появлением компьютера, давшего нам силу вычислений. Искусственный интеллект стремительно перестает быть просто инструментом, послушным калькулятором в руках исследователя, и превращается в нечто большее — в полноценного партнера по открытиям.

продолжить чтение