Как заставить LLM-модель исполнять твои запросы, если её обучали не делать этого
Намедни в своём канале я решил сделать эксперимент, получится ли почти с нулевым бюджетом сделать простой ИИ-сервис обёртку на трендовую тему, и чтобы это было за 4-7 дней.
Дело о похищенном рюкзаке: SQL, сложность и слепая вера в ИИ
Запись из дневника доктора Ватсона1. Тревожный звонокБыл хмурый лондонский вечер, когда в нашу скромную квартиру на Бейкер-стрит ворвался взволнованный инспектор Лестрейд.
Китайские учёные: ИИ способен формировать представления об объектах, сходные с человеческими
Китайские исследователи обнаружили первое в истории доказательство того, что модели ИИ, такие как ChatGPT, обрабатывают информацию подобно человеческому мозгу. Они подробно описали это открытие в журнале Nature Machine Intelligence.
Ускорение DeepSeek-R1 с подвохом: Когда токены в секунду врут о реальной скорости
ВведениеПосле сборки домашнего сервера для работы с LLM DeepSeek-R1 подробно о нём можно прочитать в статье Локальный DeepSeek-R1-0528. Когда скорость улитки – не приговор, а точка старта возникла потребность сравнить разные квантизации для оптимизации скорости/качества работы. Запуская работу с разными моделями, я заметил что квантизация зачастую приводит к ускорению генерации токенов.
Как мы учили нейросеть отвечать на вопросы
Привет, Хабр! На связи Денис Романов, директор департамента Professional Services компании «Базис». Яркое появление китайских языковых моделей заставило нас по-новому посмотреть на возможности нейросетей, и вот уже несколько месяцев мы активно внедряем их в рабочие процессы — от автоматизации рутинных задач до поддержки клиентов.
Кто сильнее в синтезе тестов? Сравниваем GPT-4.1, DeepSeek, Qwen на своем бенчмарке
Привет, Хабр!В этой статье поделюсь интересными и иногда любопытными результатами сравнения современных языковых моделей (LLM) на задаче синтеза тестов.
Смертельное оружие или голодные игры в эпоху AI
Я здесь, седьмой справа, какие у меня шансы?

