llm. - страница 78

llm.

Локальный ИИ в OpenIDE: Mellum + Continue + Ollama

ИИ в разработке уже не новость, а обыденность. На этом фоне набирает обороты другая тенденция — запускать модели локально. Причины понятны: приватность кода, работа без интернета, предсказуемая задержка и никакого вендор-лок. Вы контролируете, какая модель у вас крутится, какие данные она видит и что именно отправляется «наружу» (спойлер: ничего).

продолжить чтение

Зачем ИИ системному аналитику

продолжить чтение

Когда чёрное золото становится умным: нефтегаз в эпоху AI

Вступление переводчикаШанкар Нараянан руководит направлением технологических партнёрств в Amazon Web Services (AWS), специализируясь на решениях в области управления эффективностью активов и систем управления технологическими процессами. Он занимал ряд руководящих должностей в Baker Hughes и General Electric. Обладает более чем 15-летним опытом работы в энергетической отрасли, возглавлял множество инициатив по цифровой трансформации, направленных на повышение эффективности и производительности компаний из списка Fortune 500.В своей статье Нараянан рассматривает практическое применение

продолжить чтение

Современная разработка или пиши тогда сразу в «Блокноте»

Стандарты индустрии они такие

продолжить чтение

Как Senior управляют контекстным окном LLM

Сколько раз сегодня ChatGPT ответил вам: «Вы абсолютно правы, давайте исправим»Пять? Десять?Если подобное повторяется, дело не в модели — дело в том, как именно вы с ней работаете.Сейчас многие увлечённо обсуждают размеры моделей:«У GPT триллион параметров!» «Claude теперь держит 200 тысяч токенов в контексте!»Это впечатляет. Но если вы не умеете управлять контекстом, то всё это всё равно что купить Ferrari и ездить только на первой передаче.Сегодня разберёмся, как действительно использовать возможности LLM. Контекстное окно — это не ограничение, а

продолжить чтение

ИИ-консерва: как мы «взламывали» LLM-модели, чтобы извлечь датасеты и рассуждения

продолжить чтение

Что, если новые бенчмарки для ИИ станут появляться сами по себе?

продолжить чтение

Вайб-кодинг уязвимостей или как AI роняет безопасность

Выглядит безопасно.Писать код с LLM — очень легко, просто и весело. Не нужно мучаться с документацией, не нужно фиксить баги. Вообще ничего не нужно. Только инструкцию в чат написать. Раз-два — и всё готово. Заманчиво? Да. Но у всего есть цена — и про неё важно помнить.

продолжить чтение

GPT-5 Pro официально признан самой продвинутой моделью OpenAI

Модель GPT-5 Pro заняла первое место среди всех проверенных frontier-LLM на закрытом бенчмарке ARC-AGI Semi-Private. Тесте, оценивающем способность к абстрактному рассуждению, стратегическому мышлению и решению сложных задач. Среди официально допущенных к рейтингу моделей он сейчас считается лучшим.

продолжить чтение

Почему тесты на безопасность ИИ-агентов внезапно перестали работать

продолжить чтение

Rambler's Top100