Программирование. - страница 67

Создаём MCP‑сервер на практике

MCP без воды и шаблонного кода на практике: разбираем протокол, поднимаем сервер, тестируем через Inspector и учим LLM торговать через Finam API. Разберёмся, когда MCP выгоднее «обычных функций», как изолировать интеграции и упростить отладку инструментов.

продолжить чтение

Парадокс безопасности локальных LLM

Команда AI for Devs подготовила перевод исследования о парадоксе безопасности локальных LLM. Если вы запускаете модели на своём сервере ради приватности, эту статью стоит прочитать. Эксперименты показывают: локальные модели вроде gpt-oss-20b куда легче обмануть, чем облачные а��алоги. Они чаще вставляют вредоносный код, не замечая подвоха, и превращаются в идеальную цель для атак.Если вы запускаете локальную LLM ради приватности и безопасности, эта статья must have. Наше исследование модели gpt-oss-20b (в рамках Red-Teaming Challenge от OpenAI

продолжить чтение

Почему разработчики не доверяют вайб-кодингу и как это исправить

По-моему, вайб-кодинг — полезная фича, но я знаю, что многие его недолюбливают и считают, что AI генерит чушь, а не нормальный код. Ну тут я могу сказать как в той рекламе с гепардом: «Ты просто не умеешь их готовить».Я начал заниматься вайб-кодингом 2 года назад (привет первая версия GPT Engineer), то есть еще до того, как ввели сам термин (он появился только в этом году). За это время у меня накопился опыт, который я переложил в небольшие рекомендации, возможно они помогут начинающим вайб-кодерам.

продолжить чтение

Вероятностные методы в биржевой торговле

Современная биржевая торговля эволюционировала от интуитивных решений к строгим математическим моделям. В эпоху доминирования алгоритмических систем глубокое понимание стохастических основ рыночной динамики становится критически важным конкурентным преимуществом. На протяжении пяти лет мы исследуем применение сложных вероятностных моделей для анализа, прогнозирования финансовых инструментов и готов представить наиболее значимые аспекты этой методологии.

продолжить чтение

BERT — это всего лишь одноэтапная диффузия текста

Некоторое время назад компания Google DeepMind представила Gemini Diffusion — экспериментальную языковую модель, генерирующую текст методом диффузии. В отличие от традиционных моделей, написанных в стиле GPT и генерирующих слово за словом,  Gemini создаёт текст целыми блоками, пошагово уточняя случайный шум.Я прочитал статью «Large Language Diffusion Models» — и с удивлением узнал, что дискретная диффузия языка представляет собой просто обобщение метода генерации пропущенного токена (MLM), практикуемого уже с 2018

продолжить чтение

От визуализации к действию: как ДРАКОН+LLM может стать фундаментом для агентских ИИ

Введение: Как потратить $62 миллиона на ИИ, который даёт смертельные советы

продолжить чтение

Взаимодействие с пользователем в макросах «Р7-Офис». Часть 1. Вводная

Что я собираюсь рассказать в этой серии статей?

продолжить чтение

Книга: «Строим LLM с нуля»

Привет, Хаброжители!

продолжить чтение

Gemini за полчаса решила то, что не осилили топовые студенты-программисты на олимпиаде

В сентябре нейросети «обскакали» студентов на Международной студенческой олимпиаде по программированию в Баку. Они были во внеконкурсе, но если бы участвовали на общей основе, то GPT-5 заняла бы первое место, решив 12 заданий из 12, а Gemini 2.5 Deep Think — второе с 10 заданиями из 12. И самое интересное: всего за полчаса «гугловская» нейросеть справилась с задачей «C», которую не смогла решить ни одна из человеческих команд. Привет, Хабр! Меня зовут Кирилл Пшинник, я научный сотрудник Университета Иннополис и CEO онлайн-университета zerocoder.ru

продолжить чтение

Cursor: Обзор и возможности

продолжить чтение