llm.
Меньше надзора, больше эффективности: AI модели обобщают данные сами
Исследование Гонконгского университета и Калифорнийского университета в Беркли показало, что языковые модели лучше обобщают, если им позволить самостоятельно находить решения. Это касается как больших языковых моделей
Как ИИ войти в тестирование: методики разработки автотестов
Привет! Я Антон Бородин, техлид проекта внедрения ИИ в процессы тестирования в РСХБ-Интех, занимаюсь применением ML/AI технологий. В этой статье расскажу о том, как мы внедряли технологии искусственного интеллекта в тестирование, предложу методики разработки API и UI-автотестов, основанные на ИИ, — текущие гипотезы, которые мы используем в работе. И, конечно, покажу, пример использования LLM для генерации автотестов.
Тестирование с интеллектом: Пилотный проект внедрения ИИ в РСХБ-Интех
Привет! Я Антон Бородин, техлид проекта внедрения ИИ в процессы тестирования в РСХБ-Интех, занимаюсь применением ML/AI технологий. В этой статье расскажу о том, как мы внедряли технологии искусственного интеллекта в тестирование, предложу методики разработки API и UI-автотестов, основанные на ИИ, — текущие гипотезы, которые мы используем в работе. И, конечно, покажу, пример использования LLM для генерации автотестов.
Феномен DeepSeek: разбираем причины шума вокруг нейросети
Понедельник, 27 января, начался с крупнейшего однодневного падения
Проблемы языковых моделей при анализе длинных текстов: выводы исследования
В результате исследования, проведённого учёными из Мюнхенского университета Людвига-Максимилиана, Мюнхенского центра машинного обучения и Adobe Research, было установлено, что современные языковые модели искусственного интеллекта имеют ограничения при обработке и анализе больших объёмов текстовой информации.
«Вспомнить всё»: исследователи предложили архитектуру языковых моделей с большой памятью
9 февраля на arXiv была опубликована новая научная работа "LM2: Large Memory Models", в которой исследователи описали обновление классической архитектуры LLM на базе трансформеров. LM2 превосходит как модель RMT с дополненной памятью на 37.1%, так и базовую модель Llama-3.2 на 86,3% в среднем по задачам.В чем суть?Исследователи из Convergence Labs представили Large Memory Model (LM2) – новую архитектуру языковых моделей, которая преодолевает ограничения традиционных трансформеров в обработке длинного контекста.LM2 дополняет стандартный механизм внимания отдельным модулем памяти
Телеграм-бот с ИИ Jlama: добавляем новые фичи
Привет Хабр! В прошлый раз мы сделали телеграм-бота с полноценным ИИ. Теперь мы продолжим добавлять новые интересные фичи нашему боту, но в этот раз мы начнем с конца и посмотрим на готовый результат, а потом разберем код и детали реализации.ДэмоПервое, что мы сделаем – это добавим небольшое меню с двумя опциями: выбор модели ИИ и отображение уже выбранной модели.

