- BrainTools - https://www.braintools.ru -
«Самый горячий язык программирования сегодня — английский», — заявил Андрей Карпатый в своей лекции о Software 3.0. Звучит как мем, но за этой фразой стоит серьезная концепция эволюции разработки ПО.
Карпатый предложил простую, но мощную модель: как мы дошли от написания кода на C++ до промптов на естественном языке. При этом сама концепция остается спорной — одни называют её «новой операционной системой», другие видят дорогой эксперимент с непредсказуемым поведением [1].
Разобрал лекцию, убрал пафос и оставил практические выводы для разработчиков, продакт-менеджеров и CTO, которые решают, когда и как внедрять LLM в свой продукт. Ниже — основные тезисы Карпатого и контраргументы из реальной практики.
Software 1.0
Software 2.0
Software 3.0
Карпатый говорит, что главное отличие — теперь программу может собрать не только инженер, а любой, кто умеет формулировать мысли и писать промпты. По его мнению, даже если человек не знает Python, он может быстро собрать прототип через LLM. Но тут есть нюанс: многие отмечают, что без технической базы и навыков проверки результата такие прототипы часто оказываются сырыми или дорогими в поддержке.
Если верить Карпатому, сейчас MVP можно собрать за выходные, а новые роли вроде «Prompt Engineer» появляются даже в банках. Но на практике всё не так однозначно: спрос на такие навыки есть, но и требования к качеству, и конкуренция только растут.
«Демократизация» не означает бесплатность. По данным GitClear [2], в коде, сгенерированном LLM, объём дубликатов вырос в 8 раз. Команды тратят до 30 % рабочего времени на верификацию промптов [3] (arXiv, 2025) — новый, но дорогой этап качества.
Software 1.0 (Python):
def has_cat(image):
# ML-модель или ручная логика
...
if has_cat(image):
print("Милый кот!")
Software 3.0 (Prompt):
На фото кот? Если да — напиши "мяу".
В первом случае вы проектируете функцию, обучаете модель, пишете тесты. Во втором — формулируете задачу на естественном языке и надеетесь, что LLM справится. Но результат не всегда повторяемый и требует ручной проверки.
Когда появились первые ПК, люди набирали команды в C:> и ждали, что машина послушно ответит. C LLM мы снова в терминале: пишем промпт, смотрим, что вышло. Но операционная система — это не окошко командной строки, а экосистема приложений, драйверов и API. Именно сюда постепенно переезжает AI-рынок.
Представьте: ваш сервис для бухгалтерии обращается к LLM, когда нужно объяснить ФНС-документ «человеческим языком», но считает налоги обычным калькулятором. Пользователь даже не знает, где кончается код, а где начинается промпт.
graph TD;
LLM[(Ядро/CPU)] -->|контекст| RAM["Контекстное окно (RAM)"]
LLM --> Tools{{Инструменты}}
Tools -->|HTTP| API[API]
Tools --> Calc[Калькулятор]
Tools --> FS[Файловая система]
Terminal["ChatGPT == терминал"] --> LLM
Слабые места «ОС»:
Аугментация
Соруководство
Агент
Дайте пользователю UI, где этот «ползунок» — явный или неявный.
Практика показывает: чем выше риск, тем левее ползунок. Текстовый редактор спокойно генерирует абзацы сам, но бухгалтерия попросит подпись главбуха — просто встроите этап «Approve».
Крайний правый край сегодня не работает: AutoGPT и Devin успешно завершают < 20 % задач [12], часто уходя в бесконечные и дорогие циклы (The Register, 2025). Поэтому комбо «AI предлагает → человек проверяет» остаётся золотой серединой.
Карпатый сравнивает LLM с очень умным, но рассеянным стажёром. Модель может выдать блестящую идею, а может ошибиться в простых вещах или поверить любой информации, которую ей подсовывают.
Вот основные проблемы, которые стоит учитывать:
Карпатый «навайбил» iOS-приложение за вечер, но потратил 3 дня на облако, домен и биллинг.
Coding (LLM) ▇▇▇ 4 ч
DevOps (1.0) ▇▇▇▇▇▇▇▇▇ 24 ч
Стартуйте сервис, который сводит DevOps к одной кнопке. Простейший MVP — CLI, который создает
1) репозиторий,
2) CI/CD,
3) Stripe-checkout.
Похожую боль уже решают Railway, Render, Supabase, но места хватает: платежи, legal, GDPR, аналитика. Если упростите хоть один из этих этапов — разработчики принесут вам карточки сами.
Важно помнить и про TCO: self-host Llama-3 70B с приемлемой задержкой требует инфраструктуры уровня 4×A100 или 8×A40 GPU, что по ценам AWS составляет от $100k до $150k в год только за аренду оборудования. Если добавить расходы на хранение данных, трафик, поддержку и команду MLOps, итоговая совокупная стоимость владения (TCO) может превысить $250–300k в год (см. разбор на dev.to [14]). Экономия появляется только при очень высокой загрузке GPU и большом объёме токенов; для большинства сценариев облачный API оказывается дешевле.
Видение Андрея Карпатого о Software 3.0 подкупает своей простотой: будущее, где код пишется на английском, а барьеры для входа рухнули. Однако, как показывают обобщенное мнение, за этим фасадом скрывается реальность, в которой каждая изящная идея натыкается на жёсткие ограничения.
1. Экономика убыточна. Модель «плати за токен» создаёт «штраф за успех»: чем популярнее ваш продукт, тем быстрее растут ваши издержки. В отличие от Software 1.0, где предельные затраты на нового пользователя стремятся к нулю, здесь каждый вызов API — это реальные, ненулевые расходы. Добавьте сюда стоимость GPU для self-host, подготовку данных и «налог на верификацию» — обязательную ручную проверку каждого результата — и TCO (совокупная стоимость владения) становится запретительной для всех, кроме гигантов, способных субсидировать эксперименты.
2. Технология нестабильна. Метафора «LLM как ОС» оказывается перевёрнутой. Настоящая ОС — это надёжный, детерминированный фундамент. LLM — это волатильное, вероятностное ядро, которое для безопасного использования в продакшене требует массивной «защитной оболочки» из кода Software 1.0: кэширования, валидаторов, систем безопасности и сложных пайплайнов для обработки данных.
3. Юридические риски огромны. Неразрешённые вопросы авторского права (дело Doe v. GitHub), риски утечки проприетарных данных (запреты в Apple, Samsung) и соответствия GPL-лицензиям создают правовое минное поле. Использование LLM в корпоративной среде — это неприемлемый риск для любого юридического отдела.
4. «Низкий порог входа» — это миф. Барьер не исчез, а сместился. Вместо написания кода теперь требуются ещё более редкие и дорогие навыки: MLOps, системная инженерия, инжиниринг данных и умение строить сложные RAG-системы. «Вайб-кодинг» позволяет создать демо, но не надёжный продукт. Рынок труда это подтверждает: спрос на Senior Software Engineer’ов, способных строить инфраструктуру, никуда не делся.
Идея Software 3.0 не является заменой классической разработке. Это мощный, но сырой и дорогой компонент. Будущее не за чистым «программированием на английском», а за гибридными системами, где LLM — тщательно изолированный и контролируемый инструмент для узкоспециализированных задач, встроенный в надёжную архитектуру Software 1.0. Революция откладывается.
TL;DR
Концепция Software 3.0 Карпатого разбивается о практику. Реальность — это убыточная экономика, технологическая нестабильность и правовое минное поле. Вместо «новой ОС» мы получили волатильное ядро, требующее дорогой защитной оболочки из кода 1.0. Как будто будущее за гибридными системами, где LLM — мощный, но тщательно изолированный инструмент, а не замена разработке. А красивые концепты на то и нужны, чтобы оставаться красивыми и вдохновлять людей.
Автор: enjoykaz
Источник [18]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/16932
URLs in this post:
[1] поведением: http://www.braintools.ru/article/9372
[2] GitClear: https://www.gitclear.com/ai_assistant_code_quality_2025_research
[3] 30 % рабочего времени на верификацию промптов: https://arxiv.org/abs/2504.00294
[4] TTFT у Claude Opus > 1 с: https://artificialanalysis.ai/models/claude-3-opus
[5] Samsung запретила сотрудникам использовать ChatGPT и другие генеративные ИИ после утечки данных: https://techcrunch.com/2023/05/02/samsung-bans-use-of-generative-ai-tools-like-chatgpt-after-april-internal-data-leak/
[6] Apple запретила ChatGPT для сотрудников: https://9to5mac.com/2023/05/18/apple-bans-employees-from-using-chatgpt/
[7] Ziff Davis подал иск к OpenAI: https://www.theverge.com/news/656044/ziff-davis-sues-openai-ign-cnet-pcmag
[8] дело Doe v. GitHub: https://www.theverge.com/2024/7/9/24195233/github-ai-copyright-coding-lawsuit-microsoft-openai
[9] GPT-4o: https://openai.com/api/pricing/
[10] боли: http://www.braintools.ru/article/9901
[11] Ошибки: http://www.braintools.ru/article/4192
[12] AutoGPT и Devin успешно завершают < 20 % задач: https://arxiv.org/abs/2410.10934
[13] Factual-галлюцинации встречаются в ответах LLM: https://www.eweek.com/news/ai-hallucinations-increase/
[14] разбор на dev.to: https://dev.to/yyarmoshyk/the-cost-of-self-hosted-llm-model-in-aws-4ijk
[15] https://youtu.be/LCEmiRjPEtQ: https://youtu.be/LCEmiRjPEtQ
[16] машинный перевод на русский: https://youtu.be/Ey5cne96HqY
[17] https://karpathy.medium.com/software-2-0-a64152b37c35: https://karpathy.medium.com/software-2-0-a64152b37c35
[18] Источник: https://habr.com/ru/articles/924598/?utm_source=habrahabr&utm_medium=rss&utm_campaign=924598
Нажмите здесь для печати.