Natural Language Processing. - страница 28

Сколько стоит «спасибо» для Сэма Альтмана

Недавно в X (Твиттер) один пользователь задался вопросом - сколько денег OpenAI потеряла из-за того, что люди говорят своим LLM спасибо и пожалуйста (не дословно). Сэм Альтман ответил на это: "tens of millions of dollars well spent--you never know", что можно перевести как: "десятки миллионов долларов были потрачены не зря, никогда не знаешь .

продолжить чтение

Руководство Google по промпт-инжинирингу. Заключительная часть: лучшие практики и рекомендации

От переводчикаПредставляю вашему вниманию заключительную, третью часть перевода статьи "Prompt Engineering" (Промпт-инжиниринг) авторства Lee Boonstra — Software Engineer Tech Lead, Office of the CTO в Google. Этот материал завершает цикл публикаций, посвященных эффективному взаимодействию с большими языковыми моделями.В первой части мы познакомились с основами промпт-инжиниринга и базовыми техниками промптинга. Во второй

продолжить чтение

Накорми языковую модель документами

Задача поиска ответов по внутренней документации

продолжить чтение

Из-за ошибки сканирования или перевода появился фальшивый научный термин; ИИ разносит его по всему интернету

продолжить чтение

Руководство Google по промпт-инжинирингу. Часть 2: продвинутый промптинг и работа с кодом

От переводчикаПредставляю вашему вниманию перевод второй части статьи "Prompt Engineering" (Промпт-инжиниринг) авторства Lee Boonstra - Software Engineer Tech Lead, Office of the CTO в Google. Эта публикация продолжает цикл переводов, посвященных методам эффективного взаимодействия с большими языковыми моделями.В первой части

продолжить чтение

Руководство Google по промпт-инжинирингу. Часть 1: основы и базовые техники

От переводчикаПредставляю вашему вниманию перевод статьи "Prompt Engineering" (Промпт-инжиниринг) авторства Lee Boonstra - Software Engineer Tech Lead, Office of the CTO в Google. Это первая часть из планируемого цикла из трех статей, поскольку оригинальный документ весьма объёмен (68 страниц) и насыщен полезной информацией.Важно отметить

продолжить чтение

Как мы собираем SWE-bench на других языках

Современная разработка ПО — это плавильный котел языков: Java, C#, JS/TS, Go, Kotlin… список можно продолжать. Но когда дело доходит до оценки ИИ-агентов, способных помогать в написании и исправлении кода, мы часто упираемся в ограничения. Популярный бенчмарк SWE-bench, например, долгое время поддерживал только Python. Чтобы преодолеть разрыв между реальностью разработки и возможностями оценки ИИ, наша команда в Doubletapp

продолжить чтение

Вайб-кодинг: практика, о которой почему-то не говорят

В феврале мир разработки перевернулся с выходом Sonnet 3.7. Потому что вдруг внезапно оказалось, что джуны уже не очень-то и нужны. И нейросетка нормально заменяет мидлов тоже. Я откидываюсь в кресле, беру наушники и смотрю, как работает LLM. Можно сразу несколько, работающих над разными частями проекта: Пример проекта с прикручиванием аналитики к инфраструктуре: Сначала в GPT 4.5 провёл продуктовые исследования и сформулировал требования. Попросил превратить это в архитектурный план. Отревьюил, поправил тупые ошибки. Затем этот план (как метапромпт) скормил Sonnet в VS Code через плагин Cline. Попросил сначала создать общую структуру, шаблонные имплементации, документацию, спецификации API (protobuf для gRPC, REST API). Архитектурно сразу заложил микросервисы. Sonnet для каждого сервиса подобрал и обосновал оптимальную базу данных (где-то Postgres, где-то ClickHouse и т.д.). Сгенерировал SDK для взаимодействия, примеры использования. Сразу заложил observability: централизованные логи, метрики Prometheus, трейсинг Jaeger/Tempo, дашборды для Grafana. Потом итерационно генерировал код: сначала тесты (End-to-end, BDD), потом имплементацию под эти тесты. Написал манифесты для Kubernetes и Docker Compose для локального запуска. Сгенерировал даже скрипты для тестов REST API через curl и gRPC через gRPCurl. И всё. А теперь практика — что делать с тем, что современные нейросети учились преимущественно на говнокоде и как быть с джунами.

продолжить чтение

Помощник читателя: визуализируем сюжет

В текущих кодогенеративных реалиях создать что-то новое с нуля до уровня худо-бедной демонстрации стало предательски просто. Только успевай доходчиво формулировать свои хотелки, да вовремя давать по рукам бездушной LLM. Посему делюсь результатами воскресного вайбкодинга — концепцией ai-помощника для анализа текста. В первую очередь художественного.Откуда растут ноги.

продолжить чтение

ai-2027.com на русском: концовка по сценарию Замедления

Это вторая концовка моего мини-хабра-сериала с переводом нашумевшего Sci-Fi рассказа ai-2027.com. Он написан топовыми ИИ-экспертами, опирается на кучу данных, имеет две концовки (!) и сейчас все о нём говорят.Эту концовку не выбрали читатели хабра на голосовании в конце второй части.

продолжить чтение