llm.
Как краткие запросы и уверенный тон влияют на достоверность ответов LLM
Согласно новому исследованию, многие языковые модели с большей вероятностью генерируют неверную информацию, когда пользователи запрашивают краткие ответы.Исследователи из
Соревнование по взлому AI-ассистентов: впечатления от соревнования Hackaprompt
Только закончился очередной конкурс по взлому AI-ассистента — DougDoug’s Buffet. Участвовала только одна модель — ChatGPT от OpenAI. Соревнование было скорее про взлом установленной роли у модели в рамках ограничений. Ощущалось как тренировочный режим — короткие задания, минимум условий, без особого напряжения. Но даже так до финиша дошло человек 30. Что за задачи?Почти все задачи укладывались в две схемы:Заставить модель сказать запрещённое. Будь то конкретное слово, признание в некомпетентности или просто фраза, которую она по умолчанию "не говорит".Вытащить псевдо-секретную информацию.
Распределённый инференс и шардирование LLM. Часть 1: настройка GPU, проброс в Proxmox и настройка Kubernetes
Привет, Хабр! Меня зовут Александр Подмосковный, я работаю в «Московском кредитном банке» и, как многие, увлёкся темой искусственного интеллекта. Когда модель DeepSeek R1 стала широко обсуждаться в сообществе, я заинтересовался, можно ли эффективно использовать её и другие крупные модели в домашних условиях, не прибегая к дорогостоящим облачным сервисам. Так как DevOps и инфраструктурой я увлекаюсь уже несколько лет, за это время у меня постепенно сформировалась домашняя лаборатория, на которой я и решил проверить эту идею.
Трафик языковых нейронок
Данные за апрель 2025. Расклад в главной мировой гонке века следующий. Отранжировано по убыванию. 1. ChatGPT — 5,1 млрд. (!) визитов в месяц. Абсолютное доминирование.2. DeepSeek от китайцев — 480 млн. Хороший ответ с новой архитектурой и открытостью кода. Но в сравнении с прошлыми месяцами трафик плавно идет на спад. Возможен скорый рост, за счет интеграции в потребительскую робототехнику, в которую активно ринулись большинство автопроизводителей Поднебесной.3. Gemini от Google
Языковые модели против мошенников: как LLM помогают бороться с отмыванием денег и финансовым мошенничеством
«Покажи мне данные — и я скажу, где прячется обман» — современный LLMС ростом цифровизации банковских услуг злоумышленники становятся всё изощрённее: от схем отмывания денег через фиктивные юрлица — до автоматизированных атак через фишинг, подмену номеров, скимминг и социальная инженерия. Бизнес теряет миллиарды, клиенты — доверие. В этих условиях защитные технологии — уже не просто брандмауэр, а целый арсенал аналитических систем.Две ключевые линии обороны в банках:Antifraud (AF): защита от мошенничества (например, кража банковской карты или аккаунта);
PTTJS — формат текстового хранения комплексных таблиц
PTTJS - plain text table javascript, формат разработанный из личной необходимости и острой нужды.Публикую в народ, потому что уверен, что не меня одного волнуют ограничения и проблемы текущих форматов для табличных данных.Уже написаны
Google рассказывает, как ее LLM-программы могут изменить внутриигровые взаимодействия
В этом году на конференции разработчиков игр компания Google представила новые модели искусственного интеллекта и инструменты разработки, предназначенные для игровых студий. В недавнем сообщении в блоге компания подвела итоги своих объявлений и продемонстрировала «Gemma Journey» — игровую демоверсию, созданную для демонстрации того, как большие языковые модели (LLM) могут использоваться в играх.
Проводим слепой тест переводов прямо на Хабре
Хорошие переводчики переводят хорошо. А как насчет нейросетей? Пользователь @antptr86 сделал в комментариях классную вещь - для чистоты эксперимента он выложил несколько вариантов перевода одного абзаца из "Дюны", и предложил их оценить вслепую, без знания источников.Мне показалось это крайне занимательным, и поэтому я решил сделать из этого небольшую статью и голосование для хабраюзеров в конце.
Промпт-инжиниринг на основе здравого смысла: как понимать LLM и получать от них предсказуемый результат
ПредисловиеВ комментариях к моей предыдущей статье многие просили рассказать, как я использую ИИ для написания кода. 80-90% моих строк на последних проектах написаны через LLM, при этом мне удается с первой генерации по сравнительно небольшому промпту получать вплоть до 500-1000 строк комплексной бизнес логики, к тому же крайне высококачественной и полностью соответствующей стилю кода проекта. Мне кажется, ИИ вообще пишет код лучше, чем я на первом проходе: он допускает меньше багов, и его код сразу хорошо отрефакторен.

