llm. - страница 23

llm.

Код пишет нейросеть. Что остается разработчику?

Привет, Хабр!В последнее время я часто слышу апокалиптические прогнозы: «Скоро программисты будут не нужны, Claude напишет любой сервис за секунду». Я больше 10 лет руковожу студией разработки, и мой опыт применения нейросетей на практике в наших проектах сегодня говорит об обратном: программисты никуда не исчезнут, но их роль меняется прямо сейчас.Я различаю два принципиально разных подхода к использованию LLM в разработке:Первый — условный «вайб-кодинг»: вы кидаете в чат задачу и ждёте, что нейросеть как-то сама придумает архитектуру, сценарии и интерфейсы.

продолжить чтение

Команда In2AI — победитель MindGames Arena на NeurIPS 2025

Соревнование MindGames Arena проводится как часть одной из ключевых конференций в области ИИ NeurIPS 2025 и проверяет, могут ли агенты демонстрировать социально‑стратегические способности — моделировать убеждения других, обнаруживать обман, координироваться и планировать в многоходовых взаимодействиях — все это, общаясь на естественном языке. Команда In2AI Института AIRI, стартапа Coframe и Университета Иннополис заняла первое место в треке Generalization в двух категориях:Efficient: модели с открытым исходным кодом до 8 миллиардов параметров.

продолжить чтение

CognitiveDrone: система на VLA с когнитивными способностями для управления летающим роботом в трехмерном пространстве

VLA-модели объединяют визуальное восприятие, понимание естественного языка и выполнение физических действий. Обычно они применяются для манипуляций — например, чтобы робот взял предмет или повернул рычаг. Но управление роботом, особенно летающим, это не всегда изменение состояния — иногда это перемещение его в трехмерном пространстве. Добавление VLA-моделей в этот сегмент робототехники может дать устройствам способность мыслить и принимать решения в условиях слабой связи или полной автономности. Такой подход особенно важен для задач, где нет права на ошибку, например в спасательных миссиях. 

продолжить чтение

Внедряем Gemini во все поля ввода Windows: Бесплатно, без смс и с обходом ограничений

Привет, Хабр! Меня зовут Виталий, я графический дизайнер, который однажды устал переключаться между окнами, чтобы перевести текст и исправлять опечатки с ошибками в очередном сообщении. Полгода назад я писал о первой версии ClipGen — утилиты, которая живет в буфере обмена и по хоткею скармливает выделенный текст нейронке (Gemini). Выделил → Ctrl+F1 → Текст исправился. Быстро, бесплатно, сердито. Тогда жизнь была прекрасна: Google давал 1000 бесплатных запросов в сутки на модели Gemini. Но недавно «корпорация добра» закрутила гайки

продолжить чтение

Почерк LLM: аналитики F6 изучили атаку с использованием PureCrypter и DarkTrack RAT

С каждым днем искусственный интеллект всё больше интегрируется в нашу жизнь и облегчает многие задачи. Но, к сожалению, он также используется и в арсенале киберпреступников.

продолжить чтение

Могут ли нейросети понять самих себя?

Большие языковые модели остаются загадкой даже для собственных создателей. Исследователи постепенно раскрывают отдельные механизмы: модели используют специфические паттерны активации для различения знакомых и незнакомых людей, оценки правдивости утверждений, кодирования пространственно-временных координат. Но знают ли сами модели об этих внутренних представлениях? Способны ли они описать собственный мыслительный процесс?

продолжить чтение

Гибридный подход к контексту: как сделать LLM-агентов быстрее и дешевле

Команда AI for Devs подготовила перевод статьи о том, как AI-агенты на базе LLM тратят лишние деньги из-за разрастающегося контекста и как простое маскирование наблюдений нередко работает лучше сложного LLM-суммирования. Авторы предлагают гибридный метод, который делает агентов дешевле и надёжнее без дообучения модели.

продолжить чтение

Почему токсичные эксперты больше никому не нужны — и при чём тут ИИ

ВступлениеЕсли вспомнить профессиональные чаты, форумы и тот же Stack Overflow нескольких лет назад, легко представить типичную сцену: новичок спрашивает, почему не работает скрипт, а в ответ слышит набор знакомых реплик — «читай документацию», «это очевидно», «ты вообще код видел?». И это ещё мягкая версия. Тогда информация была распределена неравномерно, документация — фрагментированной, и получение помощи зависело от настроения тех, кто был готов объяснять. Эксперт — даже токсичный — оставался ключевым источником знаний.

продолжить чтение

Фактчекинг за $0.09: GPT-5-mini + Perplexity sonar-pro в продакшене

Новости противоречат друг другу. Один источник пишет «завод встал», второй — «встала первая линия», третий копипастит статью двухлетней давности. Когда через твой пайплайн проходят сотни таких новостей в сутки, ручная верификация перестаёт масштабироваться.Мы столкнулись с этим при построении новостного пайплайна StatCar — нишевого СМИ об автомобилях. Стандартные LLM не подходят — их знания устаревают на момент обучения. Вариант «LLM + web_search tool» рассматривали, но отказались: дороже и менее эффективно. Perplexity заточен под поиск — это его core competency.

продолжить чтение

Искусственный интеллект без иллюзий: как не сжечь бюджет компании на хайпе (Часть 2)

Это вторая часть цикла публикаций, где мы говорим не о теории искусственного интеллекта, а о суровой реальнос��и его внедрения в бизнес. В первой части мы обсуждали стратегические ловушки, а теперь настал черед уровня данных, который оказался для нас минным полем.

продолжить чтение

1...10...212223242526...3040...161
Rambler's Top100