большие языковые модели. - страница 7

Процедурная память: как она упрощает и удешевляет работу ИИ-агентов

Новая методика, разработанная учёными из Чжэцзянского университета и Alibaba Group, наделяет агентов больших языковых моделей (LLM) динамической памятью, делая их более эффективными и результативными при решении сложных задач. Этот подход, получивший название Memp, обеспечивает агентов «процедурной памятью», которая непрерывно обновляется по мере накопления опыта — подобно тому, как люди учатся через практику.

продолжить чтение

LLM и их хрупкая логика: новое исследование ставит под сомнение Chain-of-Thought

Новое исследование учёных из Университета штата Аризона показывает: знаменитое «цепочечное рассуждение» (Chain-of-Thought, CoT) в больших языковых моделях (LLM) скорее похоже на «хрупкий мираж», чем на проявление подлинного интеллекта. Эта работа продолжает традицию критического анализа глубины рассуждений LLM, но в отличие от предыдущих исследований предлагает уникальный взгляд через призму «распределения данных», который позволяет понять, где и почему CoT систематически даёт сбой.Дисклеймер: это вольная адаптция 

продолжить чтение

Распознавание текста на изображении и общение с распознанным текстом. Paddle OCR + LLM

Кадр из фильма двухсотлетний человекДанная статья описывает процесс создания проложения для распознавания текста на изображении и общения с распознанным текстом. Системные требованияЯзык: Python

продолжить чтение

Какого китайца выбрать? DeepSeek vs Qwen vs Baidu

Я протестировал 3 китайские LLM — теперь боюсь, что GPT в опасности.Отличительная особенность большинства китайских моделей, что они бесплатные. Сегодня я хочу провести субъективный обзор трёх главных китайских моделей и понять, что лучше использовать и в каких задачах. ⚠️ Это не научная статья, а честный отзыв пользователя

продолжить чтение

Системы ценностей больших языковых моделей

Каждый раз, когда человечество создаёт очередной инструмент на машинном обучении, оно сперва любуется пользой от его работы, а потом пугается своего отражения внутри. С большими языковыми моделями история повторилась с ускорением. От восторга перед ответами ChatGPT до шока от таблиц, где жизнь человека глубоко неравноценна, прошло меньше двух лет.Звучит странно, но языковые модели предвзяты. У них есть политические взгляды, любимые расы и даже люди, которыми они не прочь пожертвовать. Но обо всём по порядку.Введение

продолжить чтение

Карьера вайб-кодера — это тупик

Сразу расставлю все точки над «и»: LLM полезны. Вопрос не в том, могут ли LLM писать код, они на это способны. Вопрос в том, почему вайб-кодинг может оказаться вашей худшей карьерной инвестицией.

продолжить чтение

Где живут LLM: разбираем инференс-кластер YADRO и гоняем в нем модели

Привет, Хабр! В этой статье я расскажу про наш LLM инференс-кластер YADRO: зачем он нужен, что у него под капотом и как в такой конфигурации показывают себя популярные модели. Кроме того, я немного порассуждаю об альтернативных реализациях кластера и поделюсь планами по развитию реализации нашей.

продолжить чтение

Эволюция архитектур больших языковых моделей: от GPT-2 к современным решениям

продолжить чтение

Mistral AI публикует первую комплексную оценку жизненного цикла большой языковой модели

Компания Mistral AI опубликовала то, что она называет первой комплексной оценкой жизненного цикла большой языковой модели, призванной установить новые стандарты прозрачности в отрасли.

продолжить чтение

Остерегайтесь коммивояжёра Google AI и его клики

В этой статье мы разберём чрезмерно «продающие» обзоры от ИИ Google, через которые вас вынуждают покупать плохие товары, а также исследуем систему, из-за которой такое впаривание стало возможным.Вот уже шестнадцать месяцев назад было рассказано, как алгоритмы Google губят независимые сайты, отдавая предпочтение медийным тяжеловесам — а те, злоупотребляя своей репутацией, продают вам некачественный товар.С тех пор в Google ввели новый руководящий документ под названием «

продолжить чтение

1...5678910...15
Rambler's Top100