llm. - страница 107

llm.

Как предъявлять бездушным машинам, чтобы они тебя понимали. Гайд по промпт-инжинирингу

Если вам кажется, что нейросети тупят, не справляются с задачами или делают все как-то через раз — не спешите списывать их со счетов. Возможно, проблема не в них, а в том, как вы у нее спрашиваете.LLM — не универсальное решение всех задач. Это предикативные модели, обученные на массивных объемах текстов, и их поведение напрямую зависит от того, что именно вы им подаете на вход. Промпт в этом контексте — полноценный интерфейс взаимодействия, инструкция, способ задать контекст. Если вводите плохой промпт, получаете плохой результат. Это не случайность, не артефакт, а вполне ожидаемое следствие некорректной постановки задачи.

продолжить чтение

Четыре основных подхода к созданию моделей рассуждений (Reasoning LLMs)

Всем привет! Меня зовут Александр, я COO в SaaS-платформе аналитики данных. Последний год активно изучаю внедрение AI-решений в кросс-функциональные процессы. Делюсь материалами, которые помогают:Продуктовым менеджерам — интегрировать AI без перегрузки команд;Разработчикам — выбирать инструменты под конкретные бизнес-задачи;Специалистам по данным — избегать ошибок в production-развертывании.У себя в телеграм-канале делюсь сжатыми и структурированными саммери статей.Сегодняшний перевод —

продолжить чтение

Исследование уязвимостей LLM-агентов: опыт Red Teaming

Привет, Хабр!Сначала об определениях. LLM Red teaming — практика тестирования больших языковых моделей (например, GPT), направленная на выявление уязвимостей, нежелательного поведения и способов их взлома (jailbreak). Суть в том, чтобы через специальные подсказки или методы обойти защитные механизмы и ограничения LLM.

продолжить чтение

AI не заменит программистов. Пока нет

Последние несколько лет только и слышно: "AI заменит программистов", "Программисты останутся без работы", "Нейросети пишут код лучше людей". Давайте разберемся, так ли это на самом деле и что ждет индустрию в будущем. Компьютер не понимает ваш код. Он просто исполняет его.

продолжить чтение

ТАО: как Databricks оптимизирует точную настройку AI LLM

Эффективность моделей AI определяется качеством данных, используемых для их обучения или настройки. Размеченные данные были основополагающим элементом машинного обучения и генеративного AI на протяжении большей части их истории. Размеченные данные — это информация, помеченная для того, чтобы помочь моделям AI понимать контекст во время обучения.

продолжить чтение

Делаем свой reasoning dataset

Привет, Хабр! Туториал будет посвящен подготовке узкоспециализированного русскоязычного медицинского датасета для последующего файнтюнинга (тонкой настройки) открытых языковых моделей. Описанная методика выверена методом многочисленных проб и ошибок. Русификация тут приведена больше как пример того, как при помощи сырого набора данных, можно сгенерировать качественные данные под узкую задачу с минимальными затратами.В данном туториале описан процесс создания русского медицинского датасета из англоязычного

продолжить чтение

Midjourney разработали новый подход для улучшения креативности текстов LLM

Исследователи из Midjorney и Нью-Йоркского университета разработали новый подход, который может помочь языковым моделям генерировать более разнообразные креативные тексты без существенного ущерба качеству. В недавно опубликованной статье

продолжить чтение

Judge-Image от Patronus AI стремится сделать ИИ честным — и Etsy уже внедрила эту технологию

Patronus AI представила мультимодальную языковую модель-судью (MLLM-as-a-Judge) — инструмент, предназначенный для оценки ИИ-систем, интерпретирующих изображения и генерирующих текст.

продолжить чтение

Галлюцинации в языковых моделях: виды, причины и способы уменьшения

Всем привет, меня зовут Алена, я являюсь ML-специалистом в SimbirSoft. В этой статье я хочу рассказать о галлюцинациях больших языковых моделей, а именно о том, как их оценить и минимизировать.СодержаниеВажность темыВиды галлюцинаций LLM Почему важно их выявлять?Причины появленияМетрики и подходы к оценке галлюцинацийСпособы минимизацииЗаключение

продолжить чтение

Как подключить AFFiNE к Ollama?

Когда я пытался подключить AFFiNE к Ollama или к DeepSeek, я сразу столкнулся с большой проблемой: AFFiNE попросту не умеет работать с моделями, отличными от GPT. Вопрос: почему? Да потому что ребята просто захардкодили названия моделей в коде. 

продолжить чтение

Rambler's Top100