llm. - страница 43

llm.

«Википедия» запретила использовать языковые модели для написания статей

Англоязычная «Википедия» запретила редакторам писать и переписывать статьи с помощью языковых моделей. Новое правило закрепили в редакционной политике организации.

продолжить чтение

RAG вместо GPT: как мы сделали внутреннего ассистента для корпоративных данных

В больших компаниях поиск почти всегда «работает». Но это не значит, что сотрудники быстро находят нужное: нередко они тратят часы на попытку вспомнить формулировку, место и контекст.Мы построили внутренний RAG-ассистент в закрытом контуре: изоляция данных, контроль доступа, бенчмарки качества и долгая  работа с вендором. В статье — архитектура, переговоры  с вендором, ошибки, компромиссы и выводы для тех, кто думает о корпоративном ИИ всерьёз.

продолжить чтение

Готовим ИИ-агента к продакшену

Готовим ИИ-агента к продакшену

продолжить чтение

Квантизация с нуля: как запустить 160ГБ LLM на ноутбуке и не потерять в качестве

Qwen-3-Coder-Next — модель с 80 миллиардами параметров и весом 159,4 ГБ. Примерно столько RAM потребовалось бы для её запуска, и это ещё без учёта длинного контекстного окна. И эта модель не считается большой моделью! По слухам, у frontier-моделей более триллиона параметров, для которых понадобилось бы минимум 2 ТБ оперативной памяти. Последний раз я видел столько RAM в одной машине — никогда.

продолжить чтение

Как заставить LLM считать точно: генерация кода вместо генерации ответов

Недавно в популярном Facebook-посте: «GPT работает всё хуже. Просишь пересчитать формулу на 600 грамм, он бодро выдаёт две по 300. Пора, видимо, валить».Проблема знакомая каждому, кто пытался использовать LLM для расчётов. Но это не деградация конкретной модели. Это фундаментальное ограничение архитектуры. И у него есть решение.Почему LLM не умеют считатьTransformer предсказывает следующий токен на основе вероятностного распределения. Когда вы просите модель умножить 18 на 38.76, она не вызывает калькулятор. Она генерирует последовательность символов, которая «похожа» на правильный ответ.

продолжить чтение

Хотел перестать копировать из Wordstat. Получилась мультиагентная система с Ensemble Voting

Ни одного из этих слов в моих планах не было. Я просто задолбался вручную таскать ключи из Wordstat в Excel.Версия 1: лишь бы не копировать рукамиЗнакомая ситуация: открываешь Wordstat, вводишь маску, ждёшь, копируешь, вставляешь в Excel. Следующая маска. И так по кругу. Каждый раз одно и то же.Написал скрипт. Никакой архитектуры просто цикл, запросы к Bukvarix (у них есть бесплатный API), файл на выходе. Работало. На этом стоило остановиться.Не остановился.

продолжить чтение

Кибербезопасность, Data Science и бизнес-анализ в большом банке: о чем говорили на Техновечере Газпромбанк.Тех

5 марта команда Газпромбанк.Тех провела Техновечер — митап для студентов и начинающих ИТ-специалистов.180 участников, четыре выступления, круглый стол с полуфиналистами Молодежной программы Финополис 365 и нетворкинг с экспертами. Чтобы разговор о технологиях был не просто лекцией, выбрали формат вечернего шоу: с неоном и стилистикой ночного мегаполиса нулевых. Темы: от кибербезопасности и Data Science до бизнес-анализа и командной работы. Рассказываем, как прошло мероприятие.

продолжить чтение

Как мы в Диасофт автоматизировали автотесты с помощью ИИ

Привет, Хабр! Я Анна Круглова, в Диасофт занимаюсь развитием инструментов автоматизации тестирования на базе искусственного интеллекта. В нашей компании процесс создания тестов для API и событий полностью автоматизирован с помощью ИИ.  В этой статье расскажу, как это устроено и влияет на подход к работе тестировщика.  Особенности сложных API и событийДля создания микросервисов и проектирования межсервисных взаимодействий (контракты API и событий) в Диасофт используется low-code платформа Digital Q.Archer, на базе которой генерируется код сервисов.

продолжить чтение

Google представила новый ИИ-алгоритм сжатия памяти TurboQuant

Исследователи искусственного интеллекта Google представили TurboQuant, новый сверхэффективный алгоритм сжатия памяти для ИИ.

продолжить чтение

Линтер для теологии, или Как ансамбль LLM провел статический анализ библейского текста (кейс 1 Тим. 2:15)

Дисклеймер. Эта статья не о религии. Речь пойдет о методе. Сложный богословский текст здесь выступает полигоном для проверки гипотезы: может ли ансамбль языковых моделей найти скрытые логические противоречия в человеческих интерпретациях?ВведениеПочему ИИ, а не очередной комментарий?Мой опыт предыдущих публикаций показал, что даже технически подготовленная аудитория часто воспринимает групповую оценку нейросетей с недоверием.

продолжить чтение