Машинное обучение. - страница 197

Меньше переписок — больше жизни: личный телеграм-бот за 30 минут

В айти я уже давно, и в какой-то момент проектов стало сильно больше, чем я могу вывезти. Отказаться даже от одного из них — не вариант, деньги нужны катастрофически. После того как рабочий день снова закончился к 2-3 ночи, я начал думать, как освободить себе хотя пару часов на поспать или пожить. Сначала завел таск-трекер, потом вставал пораньше, но кардинально ничего не поменялось.

продолжить чтение

Личный помощник в Telegram: как я сделал ИИ-бота, который сэкономил часы на переписках

В айти я уже давно, и в какой-то момент проектов стало сильно больше, чем я могу вывезти. Отказаться даже от одного из них — не вариант, деньги нужны катастрофически. После того как рабочий день снова закончился к 2-3 ночи, я начал думать, как освободить себе хотя пару часов на поспать или пожить. Сначала завел таск-трекер, потом вставал пораньше, но кардинально ничего не поменялось.

продолжить чтение

Топ-5 бесплатных нейросетей для транскрибации: лучшие сервисы для перевода аудио в текст

продолжить чтение

Когда две головы лучше, чем одна: ученые экспериментируют с коллективной работой нейросетей

Привет, Хабр! Меня зовут Кирилл Пшинник, я научный сотрудник Университета Иннополис и CEO Онлайн-Университета «Зерокодер», а также автор книги «Искусственный интеллект: путь к новому миру». Как можно понять, я интересуюсь нейросетями и разными сторонами их использования: читаю новости, научные работы, пишу статьи сам. Сегодня я хочу рассказать о японском стартапе Sakana AI, который изобрел open-source фреймворк TreeQuest. Он позволяет использовать сразу несколько разных больших языковых моделей для того, чтобы получить более точный результат. Но начну я с голубей. 

продолжить чтение

ML Q & AI. Глава 5. Уменьшение переобучения при помощи данных

← Предыдущая глава |Предположим, что мы обучаем классификатор при помощи обучения с учителем и замечаем, что он страдает от переобучения. Какие существуют основные подходы для уменьшения переобучения путем модификации или дополнения данных?Переобучение

продолжить чтение

Где живут LLM: разбираем инференс-кластер YADRO и гоняем в нем модели

Привет, Хабр! В этой статье я расскажу про наш LLM инференс-кластер YADRO: зачем он нужен, что у него под капотом и как в такой конфигурации показывают себя популярные модели. Кроме того, я немного порассуждаю об альтернативных реализациях кластера и поделюсь планами по развитию реализации нашей.

продолжить чтение

Grok 4, Chimera и LLM от ETH Zurich: что нового в мире больших языковых моделей

продолжить чтение

Meta* позволит некоторым кандидатам использовать ИИ во время тестирования по программированию

Руководство Meta* разрешило позволить

продолжить чтение

Micro-LLM: почему будущее за миниатюрными моделями

Micro-LLM: почему будущее за миниатюрными моделямиКогда-то программные системы строились как монолиты. Огромные, неповоротливые, требующие много ресурсов и постоянного внимания. Сегодня мир ИТ массово переходит на микросервисную архитектуру. Подобный сценарий вполне реален и в мире искусственного интеллекта, особенно в области больших языковых моделей (LLM).

продолжить чтение

Harmonic запускает приложение с чат-ботом на основе ИИ

Harmonic, стартап в области искусственного интеллекта, соучредителем которого является генеральный директор Robinhood Влад Тенев, в понедельник объявил о запуске бета-версии чат-бота для iOS и Android, с помощью которого пользователи могут получить доступ к модели искусственного интеллекта Aristotle.

продолжить чтение

Rambler's Top100