llm. - страница 125

llm.

Телеграм-бот с ИИ Jlama: добавляем новые фичи

Привет Хабр! В прошлый раз мы сделали телеграм-бота с полноценным ИИ. Теперь мы продолжим добавлять новые интересные фичи нашему боту, но в этот раз мы начнем с конца и посмотрим на готовый результат, а потом разберем код и детали реализации.ДэмоПервое, что мы сделаем – это добавим небольшое меню с двумя опциями: выбор модели ИИ и отображение уже выбранной модели.

продолжить чтение

Инвестиции в ИИ выросли на 62% (до 110 млрд долларов в 2024 году), но общее финансирование стартапов сократилось на 12%

Венчурные инвесторы жадно заключают сделки со стартапами, развивающими ИИ, но при этом сохраняют осторожность в отношении остального технологического спектра.Скрытый текст

продолжить чтение

Нейронкам делегируют многое, но остаются сложности — LLM в научной деятельности и работе с кодом

Недавно мы провели обзор исследований, посвященных работе с большими языковыми моделями в ЦОД. Обсудили, почему происходят сбои при обучении моделей и применимость LLM в кибербезопасности.

продолжить чтение

Как LangChain и LangGraph упрощают жизнь разработчика ИИ-Агентов

При разработке приложений на основе больших языковых моделей (LLM, Large Language Model) встает вопрос: вызывать ли модель напрямую через API (например, OpenAI) или использовать специализированные фреймворки вроде LangChain или LangGraph. Ниже мы рассмотрим, с какими сложностями сталкивается разработчик при прямом использовании LLM, и как LangChain и LangGraph помогают упростить создание сложных диалоговых и агентных систем. Также приведем примеры кода, сравнивая прямые вызовы с использованием этих фреймворков, и обсудим, когда их применение оправдано.Проблемы при прямом вызове LLM API

продолжить чтение

Как стать AI-разработчиком в 2025?

Поздравляю, вы уже AI разработчик.Шутка. Вы только на 80% AI разработчик.AI – теперь коммодити. Кто угодно может превратить свой древний saas в AI-driven за один HTTP запрос, а большая часть AI разработки с первого взгляда выглядит как перекладывание json'ов. Не нужно учить модельки, не нужно их хостить и можно не знать, как они работают.

продолжить чтение

Так ли страшен DeepSeek, как его малюет Cerebras?

В последнее время две темы в новостях о новейших достижениях в области ИИ привлекали наибольшее внимание специалистов и досужей публики, которая желает все знать — китайский проект DeepSeek и производитель оборудования для ИИ американская компания Cerebras. Здесь, на Хабре своевременно появлялись публикации по обеим темам. Я сходил по некоторым ссылкам к первоисточникам, приведенным в этих публикациях для проверки фактов. Вы тоже можете это сделать, если захотите.

продолжить чтение

Учебник — всё, что вам нужно

Немного вызывающее название статьи отсылает к известной работе Внимание - всё, что вам нужно. На этот раз речь пойдет о качестве данных, на которых обучают LLM. Оказывается, качественный учебник (как концентрат знаний в любой сфере) в разы сокращает потребность и в памяти, и в мощности GPU, и в деньгах инвесторов...

продолжить чтение

Hugging Face выпускает небольшую языковую модель, которая в большинстве случаев превосходит Qwen и Llama

Исследовательская группа Hugging Face представила SmolLM2, свою новейшую языковую модель. Несмотря на то, что она не открывает новых горизонтов, она является ценным дополнением к портфолио AI-технологий компании.

продолжить чтение

Почему искусственный интеллект такой дорогой: пять причин от Bloomberg

Стремление к созданию более масштабных моделей искусственного интеллекта, а также увеличение числа чипов и дата-центров для их разработки, оборачивается значительными расходами для технологических компаний.Важное примечание

продолжить чтение

Домашний Кей-Трак-доставщик по мотивам робота-доставщика Яндекса. Часть 1

К оглавлениюВведениеКак и многие, кто работает в ИТ, я обожаю "Технологические преколы". Когда я впервые увидел робота-доставщика Яндекса, первая мысль была: "Мне срочно нужен этот прикол. Не знаю зачем, но надо".

продолжить чтение

Rambler's Top100