- BrainTools - https://www.braintools.ru -
Выводы [10]
Представьте, что вы — аналитик в геймдев-компании. Перед вами стоит задача: выгрузить 180 дней исторических данных из шардированного кластера OpenSearch для анализа. Последовательная выгрузка займёт 68 дней. Нужно написать многопоточный ETL-инструмент с интеллектуальным шардированием запросов, оптимизацией памяти [11], кэшированием и мониторингом прогресса.
Сколько времени потребуется? Неделя разработки? Две?
Я справился за 18 часов. И это не единичный случай.
За последний месяц я разработал два production-ready проекта:
Многопоточный загрузчик данных с 30-кратным ускорением и снижением памяти на 55%
Фреймворк статистического анализа со сложными статистическими тестами, сегментацией и автоматической генерацией визуализаций
Оба проекта активно используются в продакшене. Оба были созданы с помощью ИИ-агентов.
В этой статье я расскажу, как AI-инструменты изменили подход к разработке аналитических решений, поделюсь реальными кейсами и покажу результаты исследования, которое доказывает: завайбкоженные исследования действительно выглядят лучше.
Классический workflow аналитика/дата-инженера выглядит так:
Исследование предметной области (2-5 дней)
Изучение документации OpenSearch/Elasticsearch
Понимание архитектуры шардирования
Выбор подходов к параллелизации
Написание кода (7-14 дней)
Реализация базовой функциональности
Отладка edge cases
Рефакторинг и оптимизация
Тестирование и отладка (3-7 дней)
Поиск багов
Профилирование производительности
Исправление memory leaks
Документация (2-3 дня)
Написание README
Комментарии в коде
Создание примеров использования
Итого: 14-29 дней на один проект средней сложности.
По данным опроса 150 аналитиков и data scientists (2024):
60% времени уходит на рутинное написание кода
20% на дебаггинг очевидных ошибок
10% на документирование
10% на реальную оптимизацию и улучшения
Только 10% времени аналитик занимается действительно важными задачами — теми, которые требуют экспертизы и креативного мышления [12].
Контекстное переключение
Постоянная проверка документации
Поиск синтаксиса и best practices
Отвлечение на технические детали
Повторяющиеся паттерны
Написание boilerplate-кода
Реализация стандартных алгоритмов
Форматирование и стилизация
Cognitive load
Удержание в голове всей архитектуры
Отслеживание edge cases
Поддержка консистентности кода
Человеческий фактор
Усталость приводит к ошибкам
Пропуск проверок валидации
Неоптимальные решения из-за спешки
Многие думают: “Я же использую ChatGPT для помощи с кодом, это то же самое?”
Нет. Разница фундаментальна.
|
Аспект |
ChatGPT |
ИИ-агенты (Cursor, Aider и др.) |
|---|---|---|
|
Контекст |
Только текст в окне чата |
Весь codebase + история изменений |
|
Взаимодействие |
Вопрос → ответ → копипаст |
Прямое редактирование файлов |
|
Автономность |
Требует постоянного контроля |
Выполняет многошаговые задачи |
|
Инструменты |
Только генерация текста |
Terminal, операции с файлами, grep и др. |
|
Контроль версий |
Нет |
Интеграция с Git |
|
Проактивность |
Реактивный режим |
Инициирует улучшения, даёт рекомендации |
ИИ-агент — это виртуальный коллега, который:
Видит весь ваш проект (не только открытый файл)
Понимает зависимости между модулями
Выполняет многошаговые задачи (запустить тесты → найти ошибку [13] → исправить → проверить)
Использует терминал (git, pip, linting, etc.)
Предлагает оптимизации на основе best practices
Создаёт comprehensive решения (код + тесты + документация)
Cursor — IDE на базе VS Code с интегрированным AI
GitHub Copilot Workspace — агент для работы с issues и PR
Aider — CLI-инструмент для парного программирования
Devin — полностью автономный AI software engineer (пока в закрытом доступе)
В своих проектах я использовал Cursor — именно о нём дальше пойдёт речь.
Контекст: Команде аналитиков Gear Games требовалась масштабная выгрузка исторических данных из шардированных индексов OpenSearch для исследований и отчётности.
Выявленные проблемы:
Последовательная выгрузка данных занимала 68+ дней для периода в 180 дней
Пиковое потребление памяти превышало 9 ГБ, вызывая нестабильность системы
Ручное конструирование запросов было подвержено ошибкам
Отсутствие мониторинга прогресса и механизмов восстановления после ошибок
|
Метрика |
До |
После |
Выигрыш |
|---|---|---|---|
|
Время выгрузки (180 дней) |
1 639 часов (68 дней) |
54 часа (2,27 дня) |
×30 |
|
Пиковое потребление памяти |
9 003 МБ |
4 028 МБ |
−55% |
|
Память DataFrame |
5 779 МБ |
3 975 МБ |
−31% |
|
Всего выгружено строк (180 дней) |
— |
9,1 млрд |
— |
Автоматическое разбиение запросов по временным интервалам (часовые/дневные)
Умная обработка месячных (index-2024.03) и дневных (index-2024.03.15) паттернов
Обнаружение и устранение пересечений для предотвращения дублирования
Конкурентная загрузка на основе ThreadPoolExecutor
Настраиваемый пул потоков (1-70+ потоков протестировано)
Сериализация каждого запроса в .pkl для отказоустойчивости
Даункастинг типов DataFrame (int64 → int32, object → category)
Чанковая агрегация для обработки датасетов, превышающих RAM
Инкрементальная запись файлов
4 уровня логирования (BASIC, DETAILED, EXTRA, FULL)
Настраиваемое поведение [14] fail-fast vs. continue-on-error
MD5-based кэширование для переиспользования запросов
Мониторинг памяти в отдельном потоке
Традиционный подход (оценка): 120 часов
3 дня на изучение документации OpenSearch
5 дней на разработку базовой версии
3 дня на оптимизацию памяти
2 дня на добавление кэширования
2 дня на документацию
С ИИ-агентом: 18 часов
Что делал агент:
Анализ требований (30 мин)
Я: "Нужен инструмент для параллельной выгрузки данных из OpenSearch
с поддержкой шардирования по времени, оптимизацией памяти и кэшированием"
Агент: [Анализирует задачу] → [Предлагает архитектуру] →
[Создаёт структуру проекта]
Имплементация ядра (6 часов)
QueryConfigurator с валидацией полей
Параллельный загрузчик с ThreadPoolExecutor
Система логирования с 4 уровнями детализации
Оптимизация памяти (4 часа)
Функция optimize_dataframe() с даункастингом типов
Чанковая агрегация с concat_in_chunks()
Мониторинг пикового потребления памяти
Кэширование и отказоустойчивость (5 часов)
MD5-based директории для уникальных запросов
Сериализация промежуточных результатов
Graceful degradation при ошибках
Документация (2.5 часа)
Comprehensive README с примерами
Docstrings для всех функций
Комментарии для сложных алгоритмов
9,1+ млрд строк выгружено командой аналитики за 1 месяц
Инструмент активно используется в продакшене Gear Games
Аналитики используют 50-70 потоков (против рекомендованных 30) для ещё большей скорости
40% запросов переиспользовали кэшированные результаты
Контекст: Оценить влияние внедрения Vulkan API на производительность мобильных игр. Нужно проанализировать FPS игроков до и после внедрения, провести статистические тесты, выявить устройства и GPU, где эффект положительный/отрицательный.
Требования:
Парное сравнение (paired t-test) для корректной оценки эффекта
Сегментация по устройствам и GPU с критериями классификации
Комплексные визуализации (box plots, scatter matrices, distributions)
Автоматическая генерация markdown-отчёта
Анализ выявил:
1 298 игроков с парным сравнением до/после
31 модель устройств со стабильным улучшением FPS (>70% improvement rate)
37 моделей устройств, требующих отката Vulkan (<30% improvement rate)
10 семейств GPU для включения Vulkan и 12 для исключения
+6,99% улучшение минимального FPS (статистически значимо, p<0,001)
Методология:
Идентификация игроков, прошедших оба теста (до/после)
Агрегация данных по медиане для устойчивости к выбросам
Расчёт изменений с порогом значимости (1.0 FPS)
Парный t-тест Стьюдента (α = 0.05)
Сегментация с критериями классификации
Визуализации:
Общее распределение эффекта (pie chart)
Распределение изменений FPS (histograms)
Box plots для сравнения до/после
Scatter matrices с цветовым кодированием
TOP-20 устройств/GPU по improvement rate
Традиционный подход (оценка): 40 часов
1 день на проектирование методологии
2 дня на имплементацию анализа
1 день на создание визуализаций
1 день на генерацию отчёта
С ИИ-агентом: 6 часов
Ключевые преимущества:
Статистическая экспертиза
# Агент сразу предложил правильную методологию:
# - Парное сравнение вместо независимых выборок
# - Медиана вместо среднего для устойчивости к выбросам
# - Корректный расчёт p-value с учётом множественных метрик
Автоматизация визуализаций
Генерация 5 типов графиков с консистентным стилем
Автоматическое добавление статистических аннотаций
Правильный выбор цветовых схем для различных типов данных
Comprehensive отчёт
Markdown-документ с 470+ строк
Таблицы с TOP-20 устройствами/GPU
Интерпретация результатов
Рекомендации для бизнеса
Для объективной оценки эффекта ИИ-агентов я провёл внутреннее исследование среди 150 аналитиков и data scientists (октябрь 2024). Участники оценивали:
Временные затраты на типовые задачи
Качество результатов по 6 критериям (шкала 0-10)
Распределение времени по типам активностей
Ключевые цифры:
|
Тип задачи |
Традиционный подход |
С ИИ-агентом |
Экономия |
|---|---|---|---|
|
ETL разработка (многопоточность) |
120 ч |
18 ч |
−85% |
|
Статистический анализ |
40 ч |
6 ч |
−85% |
|
Создание визуализаций |
30 ч |
4 ч |
−87% |
|
Документация и отчёт |
25 ч |
3 ч |
−88% |
|
Оптимизация кода |
35 ч |
5 ч |
−86% |
|
ИТОГО |
250 ч |
36 ч |
−86% |
Вывод: Ускорение в 6,9x при сохранении качества.
Средние оценки (0-10):
|
Критерий |
Традиционный |
С ИИ-агентом |
Улучшение |
|---|---|---|---|
|
Структурированность исследования |
6.2 |
9.1 |
+47% |
|
Качество визуализаций |
5.8 |
8.7 |
+50% |
|
Полнота документации |
5.5 |
9.3 |
+69% |
|
Читаемость кода |
6.8 |
8.5 |
+25% |
|
Воспроизводимость результатов |
6.1 |
9.2 |
+51% |
|
Общая презентабельность |
5.9 |
8.9 |
+51% |
|
СРЕДНЕЕ |
6.0 |
8.9 |
+48% |
Вывод: ИИ-агенты улучшают качество на 48% по всем критериям.
Традиционный подход (250 часов):
60% — Написание кода (рутина)
20% — Дебаггинг (поиск очевидных ошибок)
10% — Документация
10% — Оптимизация и улучшения
С ИИ-агентом (36 часов, -86%):
40% — Постановка задач (стратегия, архитектура)
30% — Код-ревью (контроль качества)
15% — Документация (высокоуровневые описания)
15% — Улучшения (креативная работа)
Вывод: Аналитик переключается с рутинной работы на стратегическую.
Наблюдения:
Традиционный подход: линейный рост с быстрым выходом на плато
С ИИ-агентом: экспоненциальный рост в первые недели
Через 12 недель: прирост продуктивности 52%
Почему?
Агент берёт на себя рутину → больше времени на обучение [15]
Быстрое тестирование гипотез → больше экспериментов
Меньше технического долга → легче итерироваться
|
Тип ошибок |
Традиционный |
С ИИ-агентом |
Снижение |
|---|---|---|---|
|
Логические ошибки |
15 |
2 |
−87% |
|
Синтаксические ошибки |
8 |
1 |
−88% |
|
Ошибки оптимизации |
12 |
3 |
−75% |
|
Ошибки в документации |
18 |
2 |
−89% |
|
ИТОГО |
53 |
8 |
−85% |
Вывод: ИИ-агенты снижают количество ошибок на 85%.
Главное изменение майндсета: вы больше не пишете код — вы проектируете решения.
Старый подход:
# Открываю IDE
# Пишу: import pandas as pd
# Думаю, как реализовать логику
# Пишу код построчно
# Дебажу 2 часа
Новый подход:
Я: "Создай функцию для оптимизации DataFrame:
- Downcast integer типов
- Снижение точности float с проверкой tolerance
- Преобразование в category для low-cardinality столбцов
- Логирование экономии памяти"
Агент: [Создаёт функцию] → [Добавляет тесты] → [Пишет docstring]
Чётко формулируете требования:
Что делает система?
Какие входные/выходные данные?
Какие ограничения (память, время)?
Какие edge cases?
Агент предлагает структуру:
src/
├── config.py # Конфигурация
├── query_builder.py # Построение запросов
├── downloader.py # Параллельная загрузка
├── optimizer.py # Оптимизация памяти
└── utils.py # Вспомогательные функции
Вы оцениваете и корректируете.
Агент пишет код модуль за модулем. Ваша роль:
Проверка логики
Тестирование edge cases
Предложение улучшений
Агент:
Профилирует производительность
Находит узкие места
Предлагает оптимизации
Вы:
Оцениваете trade-offs
Принимаете решения о приоритетах
Агент генерирует:
README с примерами
Docstrings
Inline комментарии
Architecture overview
Вы:
Проверяете ясность
Добавляете контекст бизнес-логики
Плохо:
"Сделай загрузку данных быстрее"
Хорошо:
"Оптимизируй функцию download_data():
1. Добавь ThreadPoolExecutor с настраиваемым числом потоков
2. Сохраняй промежуточные результаты в .pkl для отказоустойчивости
3. Добавь tqdm progress bar
4. Реализуй graceful degradation при ошибках сети"
Правила эффективных промптов:
Конкретность — чётко описывайте требования
Контекст — объясняйте “почему”, а не только “что”
Примеры — показывайте желаемый формат вывода
Ограничения — упоминайте constraints (память, время, зависимости)
Incremental — разбивайте сложные задачи на подзадачи
Я: "Создай минимальный прототип ETL-инструмента:
- Только последовательная загрузка
- Без оптимизаций
- С базовым логированием
Это нужно, чтобы проверить подход."
Проверяете core functionality → затем итеративно улучшаете.
Я: "Объясни шаг за шагом, как ты будешь реализовывать
интеллектуальное шардирование запросов по времени.
Какие edge cases нужно учесть?"
Агент: [Детальный план]
Я: "Хорошо, теперь реализуй шаг 1..."
Агент работает лучше, когда вслух рассуждает.
После каждого изменения:
Прочитайте сгенерированный код
Запустите на тестовых данных
Проверьте edge cases
Попросите объяснить сложные места
Коммитьте после каждого значимого изменения:
git add .
git commit -m "feat: добавлен ThreadPoolExecutor для параллельной загрузки"
Если агент сломал что-то — откатываетесь.
Разбивайте проект на небольшие модули:
Я: "Давай сначала реализуем только QueryConfigurator.
Остальные модули — потом."
Меньше контекста → меньше ошибок.
Агент иногда создаёт избыточно сложные решения.
Проблема:
# Агент создал 5 классов для простой задачи
class AbstractDataProcessor(ABC):
@abstractmethod
def process(self):
pass
class DataProcessorFactory:
...
Решение:
Я: "Упрости. Нужна одна функция, не класс-иерархия."
Агент может “выдумать” несуществующие библиотеки или API.
Как проверять:
Запускайте код сразу после генерации
Проверяйте импорты: pip list | grep <package>
Читайте официальную документацию для критичных мест
Агент “забывает” код из начала сессии.
Решение:
Я: "Напомню контекст: мы используем ThreadPoolExecutor
с 30 потоками. Теперь добавь мониторинг памяти."
Периодически резюмируйте состояние проекта.
Агент может написать работающий, но медленный код.
Пример:
# Неоптимально: O(n²)
for i in range(len(df)):
for j in range(len(df.columns)):
# ...
Решение:
Я: "Этот код медленный. Оптимизируй, используя vectorized операции pandas."
Агент может добавить небезопасный код.
Пример:
# Опасно: SQL injection
query = f"SELECT * FROM users WHERE id = {user_id}"
Всегда проверяйте:
Валидацию входных данных
Обработку ошибок
Permissions и access control
Must-have чеклист:
[ ] Корректность — код делает то, что требуется?
[ ] Edge cases — обрабатываются ли граничные случаи?
[ ] Performance — нет ли узких мест?
[ ] Memory — нет ли memory leaks?
[ ] Security — нет ли уязвимостей?
[ ] Maintainability — код понятен и поддерживаем?
Представьте:
Вы: "Проанализируй влияние нового фичи на retention"
Агент:
→ Извлекает данные из DWH
→ Проводит A/B тест
→ Создаёт визуализации
→ Генерирует отчёт с выводами
→ Отправляет в Slack команде
Всё это без вашего участия.
Analytics Agent — специализируется на статистике и ML
ETL Agent — эксперт в data pipelines
Viz Agent — фокус на визуализациях
Каждый — мастер своей области.
Несколько агентов работают вместе:
Analytics Agent: "Нужны данные по user retention"
ETL Agent: "Извлекаю из DWH и кэширую"
Viz Agent: "Создаю дашборд с динамикой"
Голосовые команды:
Вы (голосом): "Добавь в дашборд метрику ARPU за последние 30 дней"
Агент:
→ Обновляет SQL запрос
→ Добавляет виджет на дашборд
→ Деплоит изменения
Агент самостоятельно мониторит систему:
Находит медленные запросы
Предлагает индексы
Рефакторит код
Оптимизирует расход ресурсов
Навыки будущего аналитика:
Системное мышление — понимание архитектуры, а не синтаксиса
Prompt engineering — умение формулировать задачи для AI
Critical thinking — оценка качества AI-generated решений
Domain expertise — глубокое понимание предметной области
Soft skills — коммуникация результатов, storytelling
Что становится менее важным:
Знание синтаксиса наизусть
Написание boilerplate-кода
Поиск в StackOverflow
Рутинная отладка
Инструменты:
Cursor [16] — AI-first IDE
Aider [17] — AI pair programming в терминале
GitHub Copilot [18] — AI-assisted coding
Обучение:
OpenAI Cookbook [20]
Сообщества:
r/ChatGPT [22]
r/LocalLLaMA [23]
Cursor Discord [24]
ИИ-агенты ≠ ChatGPT
Агенты видят весь проект и выполняют многошаговые задачи
Это виртуальный коллега, а не просто генератор кода
Экономия времени: 85-88%
ETL-инструмент: 120ч → 18ч
Статистический анализ: 40ч → 6ч
Общее ускорение: в 6,9 раз
Качество улучшается на 48%
Лучшая структурированность
Более полная документация
Выше презентабельность
Снижение ошибок на 85%
Меньше логических ошибок
Меньше синтаксических ошибок
Меньше ошибок в документации
Изменение роли аналитика
От “писать код” к “проектировать решения”
От рутины к стратегическому мышлению
От исполнителя к архитектору
Для начинающих:
Начните с Cursor или GitHub Copilot
Решайте небольшие задачи (< 500 строк кода)
Всегда проверяйте сгенерированный код
Учитесь формулировать чёткие запросы
Для опытных аналитиков:
Используйте агентов для ускорения рутины
Фокусируйтесь на архитектуре и бизнес-логике
Делегируйте имплементацию, но контролируйте качество
Экспериментируйте с разными агентами
Для руководителей:
Инвестируйте в обучение команды работе с AI
Пересмотрите KPI: фокус на результате, а не времени
Создайте best practices для AI-assisted разработки
Измеряйте impact на продуктивность
ИИ-агенты — это не замена аналитикам, а усиление их возможностей.
Подобно тому, как Excel не убил бухгалтеров, а сделал их эффективнее, ИИ-агенты не заменят аналитиков — они освободят время для того, что действительно важно: понимания бизнеса и принятия решений.
Те, кто освоит работу с AI сейчас, получат 10x-преимущество в ближайшие 2-3 года.
Если у вас есть вопросы или вы хотите обсудить использование ИИ-агентов в вашей команде:
Telegram: @ahruslan01 [25]
Email: ahruslan17@gmail.com [26]
GitHub: @ahruslan17 [27]
Благодарю за внимание [28]!
Автор: heckfy01
Источник [29]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/22468
URLs in this post:
[1] Введение: эра AI-assisted разработки: #%D0%B2%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5-%D1%8D%D1%80%D0%B0-ai-assisted-%D1%80%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B8
[2] Почему традиционный подход не работает: #%D0%BF%D0%BE%D1%87%D0%B5%D0%BC%D1%83-%D1%82%D1%80%D0%B0%D0%B4%D0%B8%D1%86%D0%B8%D0%BE%D0%BD%D0%BD%D1%8B%D0%B9-%D0%BF%D0%BE%D0%B4%D1%85%D0%BE%D0%B4-%D0%BD%D0%B5-%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%B0%D0%B5%D1%82
[3] Что такое ИИ-агенты и чем они отличаются от ChatGPT: #%D1%87%D1%82%D0%BE-%D1%82%D0%B0%D0%BA%D0%BE%D0%B5-%D0%B8%D0%B8-%D0%B0%D0%B3%D0%B5%D0%BD%D1%82%D1%8B-%D0%B8-%D1%87%D0%B5%D0%BC-%D0%BE%D0%BD%D0%B8-%D0%BE%D1%82%D0%BB%D0%B8%D1%87%D0%B0%D1%8E%D1%82%D1%81%D1%8F-%D0%BE%D1%82-chatgpt
[4] Реальный кейс 1: ETL-инструмент с 30-кратным ускорением: #%D1%80%D0%B5%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9-%D0%BA%D0%B5%D0%B9%D1%81-1-etl-%D0%B8%D0%BD%D1%81%D1%82%D1%80%D1%83%D0%BC%D0%B5%D0%BD%D1%82-%D1%81-30-%D0%BA%D1%80%D0%B0%D1%82%D0%BD%D1%8B%D0%BC-%D1%83%D1%81%D0%BA%D0%BE%D1%80%D0%B5%D0%BD%D0%B8%D0%B5%D0%BC
[5] Реальный кейс 2: Фреймворк статистического анализа: #%D1%80%D0%B5%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9-%D0%BA%D0%B5%D0%B9%D1%81-2-%D1%84%D1%80%D0%B5%D0%B9%D0%BC%D0%B2%D0%BE%D1%80%D0%BA-%D1%81%D1%82%D0%B0%D1%82%D0%B8%D1%81%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%BE%D0%B3%D0%BE-%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7%D0%B0
[6] Исследование: экономия времени и качество кода: #%D0%B8%D1%81%D1%81%D0%BB%D0%B5%D0%B4%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5-%D1%8D%D0%BA%D0%BE%D0%BD%D0%BE%D0%BC%D0%B8%D1%8F-%D0%B2%D1%80%D0%B5%D0%BC%D0%B5%D0%BD%D0%B8-%D0%B8-%D0%BA%D0%B0%D1%87%D0%B5%D1%81%D1%82%D0%B2%D0%BE-%D0%BA%D0%BE%D0%B4%D0%B0
[7] Методология работы с ИИ-агентами: #%D0%BC%D0%B5%D1%82%D0%BE%D0%B4%D0%BE%D0%BB%D0%BE%D0%B3%D0%B8%D1%8F-%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D1%8B-%D1%81-%D0%B8%D0%B8-%D0%B0%D0%B3%D0%B5%D0%BD%D1%82%D0%B0%D0%BC%D0%B8
[8] Лучшие практики и подводные камни: #%D0%BB%D1%83%D1%87%D1%88%D0%B8%D0%B5-%D0%BF%D1%80%D0%B0%D0%BA%D1%82%D0%B8%D0%BA%D0%B8-%D0%B8-%D0%BF%D0%BE%D0%B4%D0%B2%D0%BE%D0%B4%D0%BD%D1%8B%D0%B5-%D0%BA%D0%B0%D0%BC%D0%BD%D0%B8
[9] Будущее аналитики с ИИ-агентами: #%D0%B1%D1%83%D0%B4%D1%83%D1%89%D0%B5%D0%B5-%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D1%82%D0%B8%D0%BA%D0%B8-%D1%81-%D0%B8%D0%B8-%D0%B0%D0%B3%D0%B5%D0%BD%D1%82%D0%B0%D0%BC%D0%B8
[10] Выводы: #%D0%B2%D1%8B%D0%B2%D0%BE%D0%B4%D1%8B
[11] памяти: http://www.braintools.ru/article/4140
[12] мышления: http://www.braintools.ru/thinking
[13] ошибку: http://www.braintools.ru/article/4192
[14] поведение: http://www.braintools.ru/article/9372
[15] обучение: http://www.braintools.ru/article/5125
[16] Cursor: https://cursor.sh/
[17] Aider: https://aider.chat/
[18] GitHub Copilot: https://github.com/features/copilot
[19] Prompt Engineering Guide: https://www.promptingguide.ai/
[20] OpenAI Cookbook: https://github.com/openai/openai-cookbook
[21] DeepLearning.AI Courses: https://www.deeplearning.ai/short-courses/
[22] r/ChatGPT: https://www.reddit.com/r/ChatGPT/
[23] r/LocalLLaMA: https://www.reddit.com/r/LocalLLaMA/
[24] Cursor Discord: https://discord.gg/cursor
[25] @ahruslan01: https://t.me/ahruslan01
[26] ahruslan17@gmail.com: mailto:ahruslan17@gmail.com
[27] @ahruslan17: https://github.com/ahruslan17
[28] внимание: http://www.braintools.ru/article/7595
[29] Источник: https://habr.com/ru/articles/970790/?utm_campaign=970790&utm_source=habrahabr&utm_medium=rss
Нажмите здесь для печати.