50 оттенков вайб-кодинга
… или как говнокодить не привлекая внимания санитаров :)С появлением LLM появилось и желание использовать их для написания кода. Вместе с желанием появились возможности. И этих возможностей довольно много. И они продолжают множиться :)Ниже краткий обзор некоторых AI-инструментов, которые можно использовать для написания кода:Веб-чатыAI-нативные IDECursorKiroZedWarpVoidПлагины к IDE
Character.AI запретит пользователям младше 18 лет переписываться с ИИ-персонажами
Компания Character.AI объявила
Обзор проблем и решений в ризонинговых LLM. Часть 3
В первой части мы рассмотрели ключевые проблемы логического рассуждения в LLM и показали, в чём именно модели ошибаются.Во второй части узнали, какие существуют методы решения LLM логических задач, а также посмотрели на их сильные и слабые стороны. В этой – мы обсудим, как модели иногда идут вразрез с собственной логикой и что эксперты предпринимают, чтобы это исправить.ЛОГИЧЕСКАЯ СОГЛАСОВАННОСТЬ
Обзор проблем и решений в ризонинговых LLM. Часть 2
В первой части мы рассмотрели ключевые проблемы логического рассуждения в LLM и показали, в чём именно модели ошибаются.В этой – мы обсудим методы, с помощью которых LLM решают логические задачи, включая внешние решатели, подсказки и обучение на логических примерах, а также их сильные и слабые стороны.Логическое решение вопросовДля проверки того, как LLM решают логические задачи, мы создали разные тестовые наборы
Оценка качества genAI-фичей, ML для кибербеза, MCP-серверы и оптимизация LLM – о чем расскажут на зимней Conversations?
Как Positive Technologies строит агента для кибербеза? Как Lamoda Tech обучает модель подбирать образы? Как в Raft оптимизируют экономику проектов с помощью MCP-серверов? Об этом и многом другом поговорим 5 декабря на Conversations, конференции по генеративному AI. В программе – экспертиза от 2ГИС, Авиасейлс, ecom.tech, Т-Банк, Data Light, Just AI и других. Промокод 10% на билеты – CVS25mRbH. А ниже – спойлеры докладов!
Мир после трансформеров: закат и новый рассвет больших языковых моделей
Даже если вы избегали ChatGPT и его многочисленных аналогов, то наверняка сталкивались с обработкой текстов ИИ хотя бы в поисковой выдаче. Большие языковые модели (LLM) сейчас применяют повсюду. Проблема в том, что все они построены на одной и той же архитектуре трансформеров, поэтому страдают от общих недостатков. В этой статье эксперты из лаборатории искусственного интеллекта компании «Криптонит» расскажут о существующих ограничениях LLM, наметившихся путях их преодоления и о том, какими будут следующие большие языковые модели.
Китайцы снова сделали это: MiniMax-M2 — новая SOTA в опенсорсе для кодинга
Внезапно, но факт: свежая MiniMax-M2 от китайской команды MiniMaxAI догнала Grok 4 Fast и Gemini 2.5 Pro. MoE-модель с всего 10B активных параметров обошла многих топ-игроков — от Claude до Gemini и GLM.
Как мы дистиллировали Qwen для автоматического протоколирования совещаний
Протоколирование совещаний — важная часть корпоративной коммуникации: протоколы позволяют быстро восстановить ключевые моменты, не переслушивая часовые записи. Нас зовут Андрей Ситников и Максим Шкут, мы работаем DS в команде департамента анализа данных и моделирования ВТБ, занимаемся задачей автоматического протоколирования встреч. Мы реализуем ее с помощью LLM-модели Qwen. В этой статье расскажем, как мы оптимизировали inference, сохранив качество генерации протоколов.Эта статья – саммари нашего выступления на Data Fest 2025. Запись выступления вы можете найти по ссылке
Парадокс безопасности локальных LLM
Команда AI for Devs подготовила перевод исследования о парадоксе безопасности локальных LLM. Если вы запускаете модели на своём сервере ради приватности, эту статью стоит прочитать. Эксперименты показывают: локальные модели вроде gpt-oss-20b куда легче обмануть, чем облачные а��алоги. Они чаще вставляют вредоносный код, не замечая подвоха, и превращаются в идеальную цель для атак.Если вы запускаете локальную LLM ради приватности и безопасности, эта статья must have. Наше исследование модели gpt-oss-20b (в рамках Red-Teaming Challenge от OpenAI

