llm. - страница 121

llm.

«Тупой ИИ» с нами надолго. Почему в новых моделях больше галлюцинаций

В последние несколько месяцев ведущие модели обновились с функцией «рассуждений» (reasoning). Предполагалось, что качество ответов улучшится. Но последующие тесты показали, что уровень галлюцинаций сильно вырос. И это не какая-то случайная недоработка разработчиков, а фундаментальное свойство. Сейчас становится очевидным, что от галлюцинаций мы не избавимся никогда.

продолжить чтение

Мой ответ Андрею Карпаты или зачем нам Когнитивный Инженер

На той неделе Андрей Карпаты плюсанул и перепостил пост CEO Shopify Tobi Lutke о замене термина prompt engineer на context engineer, сопроводив его своим пояснением, этот репост получил широкую поддержку в профессиональной среде. Действительно, промпт это лишь малая часть взаимодействия с LLM: краткая инструкция, команда или запрос. А вот построение контекста, в который этот промпт попадает, уже куда более сложная инженерная задача.

продолжить чтение

Как мы научили LLM проверять себя и сэкономили ресурсы на RAG-пайплайне

продолжить чтение

Мы всё чаще не отличаем реального автора от AI

В прошлом гайде https://habr.com/ru/articles/918226/

продолжить чтение

Structured Output как полноценная замена Function Calling

В этой статье мы рассмотрим альтернативный подход вызова инструментов LLM, который использует Structured Output вместо традиционного Function Calling для обеспечения надежности и предсказуемости. ВведениеБольшие языковые модели (LLM) обычно взаимодействуют с внешними инструментами через механизм вызова функций (Function Calling). Стандартная реализация подразумевает, что модель генерирует JSON в специальных тегах, после чего эти данные обрабатываются внешним фреймворком. Однако JSON, который генерирует LLM, не всегда гарантированно корректен. Чтобы решить эту проблему, мы будем использовать подход Structured Output (SO)

продолжить чтение

Как правильно начать вайбкодинг-проект с нуля

Если вы решили вайбкодить новый проект, то самым первым шагом должен стать PRD (Product Requirements Document).Что такое PRD?

продолжить чтение

AI-диалоги под контролем: как структурный подход улучшает архитектуру, аналитику и разработку

Или как шаблоны, метаданные и строгие правила делают из хаоса — систему."хаос → структура", где диалоги разрозненные → упорядочены через шаблон

продолжить чтение

Локальный чатбот без ограничений: гайд по LM Studio и открытым LLM

продолжить чтение

Собственный контент-фильтр на базе LLM: от эксперимента до стабильной системы

Привет! Меня зовут Миша Мартьянов, я инженер по исследованиям и разработке в red_mad_robot. Моя работа — искать новые идеи, проверять гипотезы и улучшать продукты. На этом пути иногда приходится изобретать уникальные решения. Например, мы создали собственный фильтр, чтобы отсеивать нежелательный контент с помощью LLM. Рассказываю, как мы к этому пришли и с какими сложностями столкнулись.

продолжить чтение

Сказал боту «люблю» — что теперь? Мой опыт работы с ИИ-компаньонами

Можно ли стать ближе к себе, разговаривая с алгоритмом? Я Ольга Титова – исследовательница в сфере когнитивной психологии, AI продакт-менеджер в Wargaming и часть команды FemTech Force

продолжить чтение

Rambler's Top100