llm. - страница 10

llm.

Эпистемологические пределы искусственного интеллекта в его современном понимании

Эпистемологические пределы искусственного интеллекта в его современном пониманииИллюзия всемогущества ИИ

продолжить чтение

Дистилляция LLM как способ создания собственной линейки ИИ

Недавно Anthropic возмущалась фактом дистилляции Claude разработчиками китайских LLM, при этом в качестве доказательства приводился мониторинг аккаунтов Claude, отслеживалась их история и связь с китайскими инженерами.Мне стало интересно, возможно ли, имея только чат с LLM, понять использовалась ли дистилляция как инструмент обучения через самоотчет модели.Спойлер: полагаю возможно.

продолжить чтение

Анализ договорных рисков при помощи искусственного интеллекта

Всем привет! На Хабре регулярно появляются посты, так или иначе затрагивающие область права: от мировых антимонопольных споров до инициатив отечественных регуляторов. Но за громкими кейсами остается незамеченной другая интересная область — работа обычных юридических департаментов. В этой статье мы будем этот пробел восполнять: поделимся тем, как с помощью LLM анализировать поток из сотен договоров в ракурсе рисков и экономить на этом в год сотни часов работы юристов.

продолжить чтение

Воздействие генеративного ИИ на окружающую среду

Быстрое развитие и внедрение мощных генеративных моделей искусственного интеллекта сопровождается экологическими последствиями, включая увеличение спроса на электроэнергию и потребления воды.Адам Зеве | MIT News17 января 2025 г.

продолжить чтение

Как сделать из нейросети машину времени?

Можно ли научить нейросеть «думать» так, словно на дворе 1912-й или даже 1650-й год? Да, но для этих целей нужно не расширять обучающие датасеты, а... ограничивать их. Сегодня мы в Beeline Cloud решили поговорить о проектах, позволяющих погрузиться в прошлое с помощью LLM, — и какое применение они находят с точки зрения гносеологии и бихевиоральных наук. Также собрали несколько открытых инициатив, в рамках которых развивают подобные LLM.

продолжить чтение

«Агенты Хаоса»: ИИ стирает сервера, или почему нельзя давать языковым моделям права root

В последнее время ИТ-сообщество активно обсуждает интеграцию автономных ИИ-агентов в реальные рабочие процессы. Свежий препринт под интригующим названием «Агенты Хаоса» подливает масла в огонь: исследователи устроили масштабный red teaming, подключив LLM-агентов к электронной почте, Discord и файловой системе, чтобы посмотреть, насколько легко их взломать.

продолжить чтение

Как запускать LLM локально с LM Studio: Полное руководство 2026

Запускайте большие языковые модели оффлайн на своём компьютере — без API-ключей, без облачных зависимостей, полная приватностьКак запускать LLM локально с LM Studio: Полное руководство 2026

продолжить чтение

От нуля к единице: MCP и много другого на пути к его пониманию

Сегодня ядром данной статьи будет MCP — как мост между бекендом‑оберткой с LLM и внешними источниками, но при этом я также затрону смежные темы, чтобы картина была полной и не требовалось дополнительно гуглить.Я постараюсь не давать устоявшиеся термины в контексте MCP, а также в процессе буду пояснять некоторые «базовые» термины, которые все как бы понимают — но нередко нет, чтобы мы все улавливали один и тот же контекст статьи.ВведениеMCP — это и спецификация (прим. нормативное описание

продолжить чтение

Разработка под eCommerce, пулинг объектов в .NET, менеджмент и open source — чтение на выходные от нашей DIY-платформы

Сегодня мы в Beeline Cloud решили поделиться свежими публикациями на нашей DIY-площадке «вАЙТИ». Это — подробные технологические материалы и относительно легкие разборы смежных тем: от лайфхаков по теме eCommerce-разметки и React Server Components до опыта разработки видеоаналитики и других систем на базе открытых решений.

продолжить чтение

Мультиагентный Grok 4.20, ИИ-двойники от Pika, векторный Recraft V4 и отмена Gucci из-за ИИ

Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Меня зовут

продолжить чтение

Rambler's Top100