llm. - страница 96

llm.

Самоучка против инженера: кто лучше

В IT-сообществе не утихают споры о ценности формального образования. Одни считают, что только фундаментальное образование формирует инженерное мышление. Другие уверены, что самоучки не уступают выпускникам вузов благодаря свободному доступу к фреймворкам и онлайн-ресурсам. Мы в Artezio провели круглый стол с экспертами отрасли и собрали аргументы с обеих сторон и разобрались, кого ищут работодатели в эпоху, когда код пишут LLM.

продолжить чтение

Руководство по созданию системы оценки качества AI

Всем привет! Меня зовут Александр, я COO в SaaS-платформе аналитики данных. Последний год активно изучаю внедрение AI-решений в кросс-функциональные процессы. Делюсь полезными материалами, которые считаю стоят внимания. В основном про AI, изменение процессов, тренды и продуктовое видение.У себя в телеграм-канале делюсь сжатыми и структурированными саммери статей.Сегодняшний перевод — Mastering AI Evals: A Complete Guide for PMsУспешные AI-продукты отличаются от посредственных

продолжить чтение

Хочешь умного агента? Научись оценивать его правильно

В середине 2024 года AI-агенты стали главной темой обсуждений в технологическом сообществе — с помощью них теперь выполняют множество задач от заказа ингредиентов для ужина до бронирования билетов и записи на прием к врачу. Затем появились вертикальные AI-агенты — узкоспециализированные системы, о которых заговорили как о потенциальной замене привычных SaaS-решений. Но по мере роста влияния агентов увеличиваются и риски, связанные с их преждевременным внедрением.

продолжить чтение

Как мы внедрили LLM в рабочие процессы аналитиков на R — и сделали это бесплатно

В этой статье расскажу, как мы в команде аналитиков начали использовать большие языковые модели (LLM) в повседневных рабочих инструментах. Всё построено на R, и покажу на практике, как можно внедрить такие фичи у себя — без платных подписок, без OpenAI и без строчки кода на Python.Это не просто обзор, а реальный кейс — как мы встроили LLM в наше Shiny-приложение, которое помогает управлять задачами на сервере. Расскажу и покажу:Как бесплатно получить API-ключ от Gemini;Как с помощью пакета ellmer собрать свой AI-чат;Как научить чат доставать структурированные данные из текста;

продолжить чтение

Агентный ИИ: одноагентные vs мультиагентные системы

Одноагентные и мультиагентные рабочие процессы | Изображение автора

продолжить чтение

Brave открыла код инструмента для блокировки cookie с помощью LLM

Brave открыла исходный код нового инструмента под названием «Cookiecrumbler», который использует большие языковые модели (LLM) для обнаружения уведомлений о согласии на файлы cookie и отзывов сообщества для блокировки тех, которые не нарушают функциональность сайта.

продолжить чтение

Халява уходит из программирования

Для меня халява — это гарантированный результат за вложенные усилия. Логика повествования требует такого определения, дальше всё будет ясно.Халяве учили и учат в школе. Сделай домашнее по алгебре, выучи стихотворение, научись решать линейные уравнения — и получишь пятерку, то есть лучшее из возможного. Любовь получать пятерки сыграла злую шутку со многими, ведь в жизни вне учебных заведений халявы практически нет.Слово «легко» ниже по статье тоже означает гарантированный результат за усилия, но подразумевается «легко, если умеешь работать с собственной мотивацией».

продолжить чтение

«Куб → Город: школьный игровой движок и зрячий ИИ-копилот»

Обратите внимание: этот материал публикуется впервые и ранее нигде не размещался, включая личные блоги, социальные сети и другие платформы. Пролог на 3 033 знака (да, я посчитал)Меня зовут Владимир Летуновский, и у меня есть две особенности. Первая: мне тринадцать, и я искренне считаю, что vkCmdPipelineBarrier— это идеальный подарок на день рождения. Вторая: все вокруг уверены, что школьники должны играть в Fortnite или — на худой конец — делать домашку, а я вместо этого выращиваю собственный игровой движок на C++ 20 + Vulkan 1 .3, да ещё и обучаю мультимодальную LLM, которая сама

продолжить чтение

Как запустить локально LLM, если ее веса не помещаются в [видео]память

Некоторые люди предпочитают пользоваться не только облачными сервисами, но и запускать LLM у себя дома. Например, так можно запустить дообученные модели без цензуры, или не посылать в облако свои личные документы. А то и запускать бесчеловечные эксперименты над LLM так, чтобы superintelligence/skynet потом это не припомнил. Есть много моделей, оптимизированых для быстрой работы на устройствах с небольшой памятью. Но к сожалению, веса самых продвинутых моделей, которые играют в одной лиге с лучшими онлайн моделями, занимают сотни гигабайт. Например, 8-битные веса Deepseek R1-671B занимают 700 гигабайт, квантованые q4 — 350 гигов. Можно квантовать и в 1 бит, размер тогда будет около 90 гигов, но такая модель почти бесполезна. Еще есть много качественных finetunes на основе Mistral-Large-instruct-130B, Qwen2.5-72B, llama3.3-70B, веса которых также не помещаются в память старших моделей видеокарт. Если веса модели не помещаются в ОЗУ (или, еще лучше, в видеопамять), то пользоваться моделью практически невозможно. При вычислении каждого токена все веса придется заново читать с диска, и минимальную задержку легко посчитать, просто разделив размер модели на скорость чтения. Но даже если у Вас дома совершенно случайно не завалялись парочка Nvidia B100 или Mac Studio Ultra/512GB RAM, все еще есть возможность запустить большую LLM.

продолжить чтение

Учёные из T‑Bank AI Research разработали метод повышения безопасности и точности ответов ИИ до 15%

Учёные из лаборатории исследований искусственного интеллекта T‑Bank AI Research создали методику обучения больших языковых моделей (LLM). Метод основан на методах Trust Region. По словам учёных, результаты исследования помогают улучшить качество ответов ИИ до 15% по пяти показателям. Исследование представили на конференции по машинному обучению ICLR в Сингапуре. Конференция идёт с 24 по 28 апреля 2025 года.

продолжить чтение

Rambler's Top100