llm.
Четыре основных подхода к созданию моделей рассуждений (Reasoning LLMs)
Всем привет! Меня зовут Александр, я COO в SaaS-платформе аналитики данных. Последний год активно изучаю внедрение AI-решений в кросс-функциональные процессы. Делюсь материалами, которые помогают:Продуктовым менеджерам — интегрировать AI без перегрузки команд;Разработчикам — выбирать инструменты под конкретные бизнес-задачи;Специалистам по данным — избегать ошибок в production-развертывании.У себя в телеграм-канале делюсь сжатыми и структурированными саммери статей.Сегодняшний перевод —
Исследование уязвимостей LLM-агентов: опыт Red Teaming
Привет, Хабр!Сначала об определениях. LLM Red teaming — практика тестирования больших языковых моделей (например, GPT), направленная на выявление уязвимостей, нежелательного поведения и способов их взлома (jailbreak). Суть в том, чтобы через специальные подсказки или методы обойти защитные механизмы и ограничения LLM.
AI не заменит программистов. Пока нет
Последние несколько лет только и слышно: "AI заменит программистов", "Программисты останутся без работы", "Нейросети пишут код лучше людей". Давайте разберемся, так ли это на самом деле и что ждет индустрию в будущем. Компьютер не понимает ваш код. Он просто исполняет его.
ТАО: как Databricks оптимизирует точную настройку AI LLM
Эффективность моделей AI определяется качеством данных, используемых для их обучения или настройки. Размеченные данные были основополагающим элементом машинного обучения и генеративного AI на протяжении большей части их истории. Размеченные данные — это информация, помеченная для того, чтобы помочь моделям AI понимать контекст во время обучения.
Делаем свой reasoning dataset
Привет, Хабр! Туториал будет посвящен подготовке узкоспециализированного русскоязычного медицинского датасета для последующего файнтюнинга (тонкой настройки) открытых языковых моделей. Описанная методика выверена методом многочисленных проб и ошибок. Русификация тут приведена больше как пример того, как при помощи сырого набора данных, можно сгенерировать качественные данные под узкую задачу с минимальными затратами.В данном туториале описан процесс создания русского медицинского датасета из англоязычного
Midjourney разработали новый подход для улучшения креативности текстов LLM
Исследователи из Midjorney и Нью-Йоркского университета разработали новый подход, который может помочь языковым моделям генерировать более разнообразные креативные тексты без существенного ущерба качеству. В недавно опубликованной статье
Judge-Image от Patronus AI стремится сделать ИИ честным — и Etsy уже внедрила эту технологию
Patronus AI представила мультимодальную языковую модель-судью (MLLM-as-a-Judge) — инструмент, предназначенный для оценки ИИ-систем, интерпретирующих изображения и генерирующих текст.
Галлюцинации в языковых моделях: виды, причины и способы уменьшения
Всем привет, меня зовут Алена, я являюсь ML-специалистом в SimbirSoft. В этой статье я хочу рассказать о галлюцинациях больших языковых моделей, а именно о том, как их оценить и минимизировать.СодержаниеВажность темыВиды галлюцинаций LLM Почему важно их выявлять?Причины появленияМетрики и подходы к оценке галлюцинацийСпособы минимизацииЗаключение
Как подключить AFFiNE к Ollama?
Когда я пытался подключить AFFiNE к Ollama или к DeepSeek, я сразу столкнулся с большой проблемой: AFFiNE попросту не умеет работать с моделями, отличными от GPT. Вопрос: почему? Да потому что ребята просто захардкодили названия моделей в коде.
Интеллект как результат эволюции или игра на выживание с ИИ
“...Однако естественный отбор, как мы увидим далее, является силой, постоянно готовой к действию, и настолько же неизмеримо превосходит слабые усилия человека, насколько творения природы превосходят произведения искусства” (c) Чарльз Дарвин, Происхождение видов

