llm. - страница 35

llm.

GitHub SpecKit: вайб-кодинг на основе спецификаций

Привет Хабр! Недавно начал активно использовать инструмент GitHub SpecKit, который превращает хаотичные промпты при разработке в чёткие структурированные документы для AI-агентов. Я пробовал писать код с использованием LLM и был недоволен как нейросеть пишет код. Придерживался мнения что проще самому написать код, чем играть в генерацию кода. Те, кто уже баловался вайб-кдингом знают, как нейросеть начинает фантазировать/галлюцинировать и гонять по кругу ошибки в перемешку с фантазиями и не существующими методами. Но SpecKit приятно удивил 😊

продолжить чтение

OpenAI приоткрыли GPT-5.1: что такое «адаптивное мышление» и почему они теперь боятся «эмоциональной зависимости»

Все мы сидим в ожидании релиза GPT-5, но OpenAI вместо громкой презентации выкатывает... "дополнение к системной карте" (System Card Addendum) для GPT-5.1. Звучит скучно, как юридический документ или обновление пользовательского соглашения, которое никто не читает. Но я все-таки полез смотреть, что там внутри. И, как оказалось, зря многие это пропустили.Там, по сути, нам не просто рассказали о фичах, а анонсировали архитектуру двух новых моделей - GPT-5.1 Instant и GPT-5.1 Thinking. И что еще интереснее - детально расписали новые "предохранители", которые многое говорят о том, куда движется индустрия."Instant" и "Thinking": что это за звери?

продолжить чтение

La Perf — бенчмарк локального ИИ, или M-серия наносит ответный удар

ИнтроЕсли вам интересен мир ИИ и вы хотите не просто делать fit, predict на удаленной ВМ, а изучать что-то локально, экспериментировать и упрощать себе жизнь, запуская модели прямо на своем девайсе — скорее всего, вам понадобится достаточно мощное железо.Эта статья - попытка ответить на вопрос эффективности железа для популярных AI задач: LLM, VLM, эмбэддинги.Она будет полезна как ML/AI Инженерам, так и просто Энтузиастам, которые выбирают себе железо для локального инференса gpt-oss.TL;DR:M4 Max - лучший по эффективности энергопотребления

продолжить чтение

Собираем простейшую RAG-систему на PHP с фреймворком Neuron AI за вечер

RAG (Retrieval-Augmented Generation или генерация, дополненная поиском) - это метод искусственного интеллекта, сочетающий генеративную большую языковую модель (LLM) с внешней базой знаний для создания более точных, контекстно-зависимых и актуальных ответов. Принцип его работы заключается в том, что сначала извлекается релевантная информация из набора документов или источников данных, а затем эта информация передается в LLM для формирования окончательного ответа. Этот процесс позволяет модели выдавать более точные ответы, менее подверженные “галлюцинациям”, и ее можно обновлять без дорогостоящего переобучения.

продолжить чтение

TOON: новый формат на смену JSON для более эффективного взаимодействия с LLM?

TOON — это ещё один способ записать те же самые JSON-данные, но компактнее и понятнее для моделей. Вместо  "key": "value" он использует отступы как YAML и табличную запись для массивов объектов: шапка с названиями полей, дальше строки с данными.

продолжить чтение

Замок в небесах: история Oracle

Oracle снова в центре внимания. Почти пятьдесят лет компания развивалась от стремительного новатора до надежного фундамента корпоративного ПО, обеспечивая работу всего — от государственных баз данных до систем здравоохранения.Это история Oracle Ларри Эллисона, её многолетней трансформации и того, как она построила облако, идеально подходящее для эпохи ИИ.Взлет9 сентября 2025 года: Oracle только что опубликовала финансовый отчет. Компания, которую долго воспринимали как инфраструктурный слой корпоративных ИТ, внезапно оказалась в центре внимания ИИ.

продолжить чтение

Контроль против гибкости: два подхода к созданию AI-агентов

продолжить чтение

AI Challenge: как МАИ вместе с ПСБ создают мост между теорией и практикой в области искусственного интеллекта

Привет коллеги, студенты, выпускники!В академической среде мы часто слышим вопрос: «Где мои алгоритмы и модели смогут решать реальные, а не учебные задачи?» Когда ПСБ предложил нам провести хакатон по AI, мы сразу поняли — это именно та возможность, которую ждут наши студенты и исследователи.В МАИ мы даём фундаментальные знания по ML и DS. Но настоящий прорыв происходит тогда, когда эти знания встречаются с реальными промышленными вызовами. Именно поэтому мы проводим

продолжить чтение

Как обучить ИИ работать за компьютером

продолжить чтение

«Золотая рыбка, хочу LLM без GPU»: как собрать Inference-сервер на CPU

продолжить чтение

Rambler's Top100