Машинное обучение. - страница 52

GitHub начнет использовать код пользователей Copilot для обучения ИИ по умолчанию

продолжить чтение

Как один отказ превратился в $150 млрд к оценке, 295% роста удалений ChatGPT — и недооценённый сюжет в истории tech

Иногда наибольшую ценность создаёт тот, кто приходит вторым

продолжить чтение

Cohere выпустила открытую модель распознавания речи Transcribe

продолжить чтение

TAPe‑дневник, день 7: первый уход от трансформеров и “почти бесплатная” сегментация

В этом посте продолжаем дневник TAPe‑детекции и рассказываем, что получилось после отказа от трансформеров: насколько сократилось число параметров, как работают локальные ассоциации TAPe‑патчей и почему на лице человека у нас начинает “сам по себе” появляться зачаток сегментации.Если вы тут впервые, сначала можно посмотреть:базовую статью про TAPe+ML — TAPe + ML: универсальная архитектура компьютерного зренияFAQ по TAPe‑детекции —

продолжить чтение

ТОП-5 бесплатных нейросетей для анализа документов в 2026 году

продолжить чтение

Intel представила видеокарты Arc Pro B70 и B65 для ИИ-вычислений

продолжить чтение

Директории в чате, очередь сообщений и авто-retry: Veai 5.7

Релиз Veai 5.7 (ИИ-агент к JetBrains IDEs для написания кода, тестирования и отладки с доступом к топовым LLM и всем внутренним инструментам IDE) собрал в себе много исправлений неочевидного UX, с которым вы сталкивались ежедневного. Меньше ручных переключений, меньше ожидания между шагами, меньше повторов при сбоях.Директории в контексте чата

продолжить чтение

Mistral выпустила открытую модель синтеза речи Voxtral

продолжить чтение

Охота на AI-инфраструктуру, часть 2: что делают с чужим Ollama — от трейдинг-ботов до контент-ферм

В первой части я рассказал, как ханипот поймал сканер MCP-серверов — новый вектор разведки, нацеленный на AI-инфраструктуру. Сегодня — про другую сторону: что происходит, когда атакующий находит открытый Ollama.Статья документирует реальные сессии злоупотребления открытыми LLM-инстансами: кто подключается, какие промпты шлёт, какие модели запрашивает. Данные собраны с трёх ханипотов (DE, US, RU) за март 2026.Зачем это нужноOllama — популярный способ запускать LLM локально. По умолчанию он слушает на 127.0.0.1:11434, но в Docker-окружении биндится на 0.0.0.0

продолжить чтение

Большие языковые модели играют в Бесконечное Лето

ИИ-агенты на базе больших языковых моделей могут управлять вашим календарем и почтой, заниматься инвестициями, вносить вклад в OpenSource-проекты и даже писать в свой блог о дискриминации ИИ-агентов. Но может ли ИИ-агент сыграть в визуальную новеллу?

продолжить чтение