llm.
Внедряем AI Code Review на GIthub: сомнительно, но окэй…
Код‑ревью — важная часть жизненного цикла разработки продукта, но давайте честно: никто не любит просматривать чужой код. Часто, разработчики делают ревью спустя рукава, но даже если это не так — человеческий фактор может сыграть злую шутку и уязвимость в коде может быть упущена. Пропущенные ошибки, уязвимости и нестабильный код могут привести к задержкам в релизе и росту технического долга. Более того, зачастую, компании имеют свои гайдлайны по оформлению code review, которые также необходимо проверять вручную.
Квантизация
Автор статьи: Марк Блуменау - Сотрудник научно-исследовательских институтов ФИАН, ИЗМИРАН, ИФТТ, преподаватель Школы Высшей Математики
To seek or not to seek
DeepSeek обрушила американский фондовый рынок, составила серьезную конкуренцию ChatGPT и вызвала огромное количество обсуждений. Мы решили не оставаться в стороне и хайпануть немножечко разобраться, как обстоят дела на самом деле!
Оценка больших языковых моделей в 2025 году: пять методов
Большие языковые модели (LLM) в последнее время стремительно развиваются и несут в себе потенциал для кардинального преобразования ИИ. Точная оценка моделей LLM крайне важна, поскольку:Компании должны выбирать генеративные AI-модели для внедрения в работу. Базовых моделей LLM сейчас множество, и для каждой есть различные их модификации.
«Идти в программисты сегодня — большая ошибка»: откровения техноблогера Михаила Ларченко
Что общего между космонавтом и программистом? Скоро эти профессии станут в равной степени бессмысленным выбором для карьеры. В интервью Youtube-каналу Ai4dev автор одного из самых интеллектуальных IT-каналов на YouTube, Fullstack-разработчик Михаил Ларченко рассказал, как искусственный интеллект уже переворачивает индустрию с ног на голову, почему европейские модели могут оказаться лучше американских, и что делать разработчику, чтобы не оказаться выброшенным на обочину технологического прогресса.
Self-healing тесты и локальная LLM
В этой статье расскажу о практическом применении больших языковых моделей (LLM) в сочетании с традиционными инструментами автоматизации Python/Selenium для повышения надежности тестов.Статья состоит из следующих разделов:1. Что такое self-healing тесты 2. Hardware конфигурация 3. Software конфигурация 4. Испытываем API локальной LLM 5. Встраиваем в тесты 6. Ограничения 7. ПерспективыЧто такое self-healing тесты
Deepseek: как превратить языковые модели в прибыльный бизнес, несмотря на снижение цен на рынке
В недавно опубликованных данных Deepseek говорится о том, что языковые модели могут приносить ощутимую выгоду, даже если их стоимость будет ниже, чем у OpenAI.Компания Deepseek предоставила
Исследуем возможности ИИ писать код. Часть 1
ОглавлениеМетодологияКлод: начало путиЧто важно указать в промпте?Ошибки, исправления и первый Pull Request
Социохакинг в эпоху нейросетей
Каждый отдельно взятый человек – уникальная, самостоятельная личность. Тем не менее, у любого из нас есть набор паттернов поведения – своеобразных уязвимостей и бэкдоров в психике. Умело манипулируя ими, психолог с навыками социальной инженерии (или, например, обыкновенный мошенникус вульгарис, работающий по качественной методичке) может выведать закрытую информацию или заставить человека выполнить некое полезное для себя действие.
Как эффективно бороться с галлюцинациями нейросетей
Привет, я — Олег Рогов, руководитель фронтенд-разработки. В статье рассмотрю, почему искусственный интеллект (ИИ) галлюцинирует и как с этим бороться. С развитием ИИ больших языковых моделей перед пользователями встает вопрос о достоверности информации, которую они предоставляют. Иногда ИИ может выдавать ответы, которые выглядят убедительно, но на самом деле являются вымышленными или неточными. Явление, при котором языковая модель генерирует ложную информацию, получило название «галлюцинация».

