Telegram бот + ИИ Jlama своими руками
Хабр, привет! Сегодня мы попробуем сделать свой ИИ с телеграм ботом для возможности простого общения с ней. Сразу оговорюсь, мы не будем в очередной раз использовать открытый API ChatGPT или новомодного Deepseek. Мы развернем свой полноценный ИИ локально и сынтегрируем его с телеграм ботом.LLM модель
Первый шаг к кибернетическому тимлиду: автоматическое ревью кода на основе LLM
Привет, Хабр! Меня зовут Евгений Зорин
Почему DeepSeek Janus-7B — это нечто действительно невероятное
Полчаса назад вышла новость о выходе DeepSeek Janus-7B - новой мультимодальной модели от DeepSeek, которая, по заявлениям авторов, рвёт DALL-E 3, Stable Diffusion XL и Stable Diffusion 3 (Medium) в бенчмарках.В этой статье я не буду дублировать новость, а хочу подробнее рассмотреть, что именно в этой модели такого уникального, из-за чего многие связанные с AI медиа сегодня захлебываются от восторга.
Субъективный взгляд на перспективы Больших Языковых Моделей
Прошло около полугода после последней моей статьи о перспективах развития больших языковых моделей. Чтобы не утомлять долгим чтением, её краткое резюме:Критика современных больших языковых моделей (БЯМ): они статичны, неэффективны в вычислениях и обучении, что ведет индустрию к технологическому тупику. Главные проблемы связаны с экспоненциальным ростом вычислительных мощностей, дефицитом качественных данных и ограничениями архитектуры.Итак, можно подвести некоторые итоги, что же мы увидели за прошедшее время.
SwiftKV: как снизить затраты и ускорить логический вывод больших языковых моделей
Исследовательская группа Snowflake AI представляет SwiftKV - решение, разработанное для повышения производительности LLM-выводов и снижения связанных с этим затрат. SwiftKV использует методы кэширования пар «ключ-значение» для повторного использования промежуточных вычислений во время выводов. Устраняя избыточные вычисления, оно оптимизирует процесс вывода и повышает эффективность использования LLM.
Внедрение LLM в разработку ПО: стоит ли?
Привет, на связи Юлия Рогозина, аналитик бизнес-процессов Шерпа Роботикс. Сегодня я перевела для вас статью, тема которой касается именно использования Large Language Models (LLM) как части вашего продукта, а не использования ИИ как инструмента в процессе разработки (например, таких инструментов, как Cursor или Zed AI).
Думающие модели o1-3: краткий обзор и чего программистам ждать дальше
Когда LLM впервые появились, они были немного похожи на детей - говорили первое, что приходило им в голову, и не особо заботились о логике. Им нужно было напоминать: «Подумай, прежде чем отвечать». Но, как и с детьми, даже тогда это не означало, что они действительно будут думать.Многие утверждали, что из-за этого у моделей нет настоящего интеллекта и что их необходимо дополнять либо человеческой помощью, либо каким-то внешним каркасом поверх самой LLM, например Chain of Thought.
Тренды ИИ-2025
Всем привет! Я Федор Горбунов, руководитель направления машинного обучения в Doubletapp. Сегодня поговорим о том, какие значимые для искусственного интеллекта события произошли в 2024 году и попробуем спрогнозировать вектор развития отрасли в будущем.
Как в РФ получить доступ к 5 бесплатным и 25 платным нейросетям LLM без VPN и с оплатой за рубли?
В последние годы большие языковые модели LLM стали неотъемлемой частью многих бизнес-процессов и приложений. Они позволяют автоматизировать взаимодействие с клиентами, генерировать контент и выполнять множество других задач. В этой статье мы рассмотрим, как российские пользователи могут получить доступ к различным языковым моделям (LLM) через сервис ProTalk, включая как бесплатные, так и платные варианты.Бесплатные LLM моделиProTalk предоставляет доступ к следующим бесплатным моделям:1. Microsoft 3.5 Phi mini FreeБазовая модель для простых задачНе требует API ключаПодходит для тестирования2.

