llm. - страница 150

llm.

Как я автоматизировал мониторинг цен своей корзины на маркетплейсах и при чем тут LLM

Привет! Маркетплейсы очень сильно изменили нашу жизнь, сделав ее супер удобной. Это классно, но думаю всем знакома картина, когда добавил товар в корзину, отвлекся, а он уже на 500р дороже. Или дешевле. Или вообще продается на косарь меньше на другом маркетплейсе. Ах да, как насчет «зачеркнутых выгодных» цен вида ̶1̶7̶0̶0̶0̶ 800р?Все это превращает покупки в биржу (или большой рынок), где одни и те же товары уезжают разным людям по разным ценам. А если так, то значит это дело надо автоматизировать и хочу рассказать как это сделал я.

продолжить чтение

Темные лошадки ИИ – инференс LLM на майнинговых видеокартах Nvidia CMP 50HX, CMP 90HX

Синтетические тесты показывают, что эти карты в 10 раз медленнее старых игровых. Но на практике с LLM они оказались на уровне RTX 2060/3060. Эта статья для тех, кто хочет сделать дешёвый LLM-сервер и любителей хардкорных экспериментов. По ходу мы рассмотрим:теоретические данныеусловия для работы этих GPUрезультаты практических тестов производительностиобъяснение полученных противоречийсоветы по небольшим доработкам (охлаждение, PCIexpress)сравнение друг с другом и другими GPUВведение

продолжить чтение

GPT-OSS-20B, H100: выжимаем 156 миллиардов токенов в месяц

С выходом Open-Source модели от OpenAI, появилось очень много новостей и обсуждений бенчмарков, но реальной статистики, гайдов запуска, и загрузочных тестов, лично я не встречал. В этой статье я покажу максимальную производительность GPT-OSS 20B, которую можно добиться на современной H100, чтобы сэкономить время тем, кто вдруг решит ее разворачивать локально на своем оборудовании!С чего начнем? Установите Ubuntu 22.04.5 LTSСначала скачаем контейнер под vLLM для gpt-oss-20b. Он отличается тем, что внутри него конкретная версия vllm 0.10.1 и другие важные зависимости.

продолжить чтение

CLI-инструмент для фундаментального анализа акций с поддержкой LLM

Всем привет!Я сделал CLI-инструмент для быстрой "фундаменталки" по акциям с добавочной аналитикой из 10-K через LLM. Он тянет данные из Yahoo Finance, дочитывает 10-K (edgartools + LLM), корректирует EV по fair-value, только страховщиков оценивает по "флоуту", делает SOTP по операционным сегментам и на базе квартилей выдаёт сигналы "КУПИ/ПРОДАЙ/НЕОПРЕДЕЛЁННО" - по метрикам, по группе и общий. Использует метрики: Forward P/E, P/FCF, EV/EBITDA.Пример запуска:git clone https://github.com/evgenyigumnov/ai-asset-screener.git cd ai-asset-screener pip install -e . asset-ai --ticker=ADBE --group=BIG_TECH_CORE

продолжить чтение

Мои впечатления от нового AI IDE — Qoder

Alibaba (у которых Qwen, AliExpress и Tmall) на днях представила Qoder — свою пока бесплатную альтернативу Cursor.Я успел провести с ним сегодня свой рабочий день, и вот мои впечатления. Сравнивать его я буду с Windsurf, т.к. им пользовался дольше остальных.ПреимуществаГлавная фича – на период беты он доступен полностью бесплатно. Но стоит поторопиться — вряд ли это продлится долго.Доступны Top Tier модели, но Qoder не позволяет выбрать модель вручную — вместо этого он

продолжить чтение

Вы неправильно поняли отчёт MIT об эффективности ИИ в корпорациях. Разбор от Venture Beat

Самая цитируемая статистика из нового отчёта

продолжить чтение

Почему провалился релиз GPT-5 и каковы перспективы настоящего open AI?

Прошло уже две недели после выхода долгожданной GPT-5, которая, как казалось, должна была стать одной из главных вех в развитии AI индустрии. Но не стала — как бы ни оценивали эту модель, пессимистично или оптимистично, остается очевидным, что принципиальной разницы между ней и o4-mini, и даже DeepSeek R1 0528, нет - если говорить о качественном кратном отличии, которое ключевым образом меняло бы приложение этого AI к реальным задачам. Поэтому и воспринята новая модель была с разочарованием.Справедливости ради стоит отметить, что как одна из многих GPT-5

продолжить чтение

LLM-инференс в 20 раз быстрее, чем на GPU! Как подключить агента-кодера с CLINE и Cerebras

Хочешь, чтобы твой AI-ассистент для кодинга работал в 20 раз быстрее, чем на современных GPU? В этой статье покажу, как подключить Cerebras к CLINE — и получить мгновенные ответы от LLM. Почему Cerebras в 20 раз быстрее, чем GPUКомпания Cerebras использует Wafer-Scale Engine 3 (WSE-3) — самый большой и быстрый ИИ-чип в мире. Основные фишки:WSE-3: гигантский кремниевый чип, размером с CD-диск, 4 триллиона транзисторов и 900 000 ядер.44 ГБ встроенной SRAM на самом кристалле → почти нет обмена с внешней памятью.20 Пбайт/с

продолжить чтение

LLM передают ИИ в руки гуманитариев

Встреча с Богом (х/ф "Космическая Одиссея 2001")

продолжить чтение

Люди-архиваторы, или как работают обратные аналогии

Когда‑то я посмотрел очень полезное видео про ML, где для аналогии нейронной сети приводилось понятие архиватора. Помню меня это впечатлило и определённо расширило кругозор. Странно, почему тогда я сразу не перенёс это на людей — скорее всего потому, что принято брать мозг за эталон и с него примерять разные наряды на искусственные нейронные сети, а не наоборот.

продолжить чтение