Groq.
Nvidia лицензирует технологии конкурента Groq на рынке чипов для ИИ и наймёт его генерального директора
Nvidia заключила неисключительное лицензионное соглашение со своим конкурентом на рынке чипов для искусственного интеллекта — Groq. В рамках сделки Nvidia наймёт основателя Groq Джонатана Росса, президента Санни Мадру и ряд других сотрудников.
От Telegram-бота к AI-агенту: как собрать своего «исполнителя задач» на Python в 2025-м
В 2023–2024 почти каждый второй pet-проект с LLM выглядел как чатик: ты спрашиваешь — модель отвечает, иногда с RAG, иногда без. В 2025-м тренд сместился: на рынке всё чаще говорят про AI-агентов — системы, которые не просто болтают, а сами инициируют действия, ходят в API, планируют шаги и живут в продакшене как часть инфраструктуры.
Как я собрал Telegram-бота-консультанта по железу на бесплатном стеке (RAG + Groq + python telegram bot)
Представьте консультанта в DNS/Ситилинке, который не навязывает «вот этот блок питания потому что остался на складе», а спокойно объясняет, чем один БП лучше другого под ваш билд, помнит, о чём вы спрашивали раньше, и ещё просит вежливый фидбек. Я решил собрать такого консультанта в виде Telegram-бота «Кремний» — RAG-бота по железу на бесплатных инструментах: Telegram Bot API, Groq (Llama 3.1 8B), sentence-transformers и чуть-чуть боли с NumPy и Pterodactyl.Задача: живой консультант по железу в Telegram
Сначала был кремний: Почему архитектура чипов, а не код, определяет будущее AI
Мы, разработчики и AI-энтузиасты, обожаем спорить о выборе. PyTorch или TensorFlow? OpenAI или Anthropic? Развернуть на AWS, Google Cloud или поднять свой кластер? Каждый день мы принимаем десятки решений, которые, как нам кажется, определяют судьбу наших проектов. Мы чувствуем себя у руля, архитекторами сложных систем, где наш интеллект и наш код — главная движущая сила. Мы выбираем фреймворки и отстаиваем свои модели в священных войнах в комментариях. Это пьянящее чувство контроля, иллюзия всемогущества в мире, который мы сами создаем строчка за строчкой.
Архитектура LPU и будущее AI без задержек
Команда AI for Devs подготовила перевод статьи о том, как Groq пытается устранить главное «бутылочное горлышко» современного ИИ — задержку. Их специализированный процессор LPU обещает скорость в реальном времени и открывает путь к новым приложениям: от финансовых систем до Coding AI-ботов. Но за пределами маркетинга остаются вопросы: что с большими контекстами, какова конкуренция с Cerebras и GPU, и выдержит ли бизнес-модель такие вызовы?Погоня за скоростью: почему задержка в ИИ становится новым "бутылочным горлышком"?

