gpt.
Выжимаем максимум из опенсорсных моделей и готовим Text2SQL
В любой крупной компании есть повторяющийся сценарий. Аналитик сидит над экспериментом или моделью, строит А/В тесты и дашборды, и в этот момент приходит бизнес и просит быстро посмотреть «продажи жвачки за вчера». Аналитик переключается, пишет запрос, отдаёт результат, а через десять минут прилетает почти такой же вопрос. Потом ещё один и ещё. День заканчивается, а свои задачи стоят и покрываются ржавчиной.
Трёхстрочный Deep Learning: 20 примеров нейросетевой магии
В 2012 году команда из Торонто потрясла мир компьютерного зрения: их нейросеть AlexNet распознавала объекты на фотографиях лучше любого алгоритма, написанного вручную. Код занимал тысячи строк, требовал двух видеокарт и недель обучения. Сегодня вы можете превзойти AlexNet одной строкой кода, а модель загрузится за секунды.
ChatGPT 5.2 Pro vs Claude Opus 4.5 vs Gemini 3 Pro: битва титанов в программировании
Доброго времени суток, «Хабр»!На дворе 2026 год, когда люди применяют нейросети в разных сферах своей жизни: от помощи в обучении до решения достаточно сложных задач.Программирование - область, требующая солидного запаса знаний и, конечно же, опыта их применения. Не каждая модель способна продемонстрировать даже относительно качественный результат.
Что мы теряем, когда ИИ пишет за нас
На некоторые вопросы ответить проще, чем на другие.
ChatGPT 5.2 Pro vs Claude Sonnet 4.5 vs Gemini 3 Pro: кто лучше пишет тексты
Доброго времени суток, «Хабр»!На дворе 2026 год - с чем вас собственно и поздравляю, хоть и с небольшим опозданием.Практически любая современная модель способна генерировать более-менее связный текст. Поэтому я решил устроить сравнение последних версий в создании литературных произведений. Рассмотрим: GPT-5.2 Pro, Claude Sonnet 4.5 и Gemini 3 Pro. Попробуем разобраться, какая из предложенных моделей покажет себя лучше других.Примите стратегически удобное положение, сделайте ставки, а я начинаю сравнение.
Локальный Tool Calling или «У нас есть BFCL-V4 дома»
В своей прошлой статье я рассказывал о компактной модели, которая по бенчмаркам смогла превзойти модели в 10 раз больше ее самой. О том, что это стало возможным благодаря особому подходу к обучения самой модели и что такую модель вполне реально запустить у себя локально.Однако, когда дело касается локального запуска, думаю, далеко немногие из нас запускают модели в BF16 через vLLM на Nvidia H100. А значит, все эти красивые результаты по бенчмаркам на практике, вероятнее всего, очень далеки от того, что мы получим на практике.И я решил это проверить.

