Машинное обучение. - страница 235

Ученые научились «расшифровывать» внутренний голос человека. Приватности конец?

Представьте, что ваши мысли, которые вы проговариваете про себя, переводятся в текст на экране. Без единого слова и движений губ — просто сигналы мозга, пойманные и расшифрованные. Как-то не по себе, не так ли? Между тем это не сюжет фантастического фильма, а реальность, созданная учеными из Стэнфордского университета: они разработали нейроинтерфейс, способный услышать «внутренний голос».

продолжить чтение

Нейросеть — это?

Доброго времени суток, «Хабр»! На дворе век технологий, которые внедряются уже буквально повсюду. С одной стороны, подобное упрощает нам жизнь, с другой — всё это простые механизмы, которыми нужно уметь пользоваться и понимать, что в любой момент мы можем остаться без них.Сегодня мы поговорим об искусственном интеллекте, а я постараюсь ответить на вопрос: что же такое эти ваши нейросети?

продолжить чтение

Как улучшить сходимость в физически-информированных нейронных сетях

Physics-Informed Machine Learning — одно из перспективных направлений в ML. Здесь ключевую роль играют физически-информированные нейронные сети (Physics-Informed Neural Networks, PINNs). Однако процесс их обучения сопряжён с рядом трудностей. В этой статье кратко обсудим, как можно решить эти проблемы и повысить эффективность обучения PINNs.Классическая постановка задачи для PINNsPhysics-Informed Neural Networks

продолжить чтение

У Цукерберга трещит суперкоманда AI-звёзд: уходы, конфликты и четвёртая перестройка за полгода

Фото из открытых источников

продолжить чтение

ИИ внедряется в наш язык: люди стали копировать слова ChatGPT

Учёные из Университета штата Флорида пришли к выводу, что искусственный интеллект начал напрямую влиять на то, как разговаривают люди. В рамках исследования

продолжить чтение

Обзор математики для начинающего ML-инженера

Этот текст содержит доступное объяснение основных частей высшей математики, которые могут потребоваться ML‑щику разного грейда в рабочих сценариях — без дотошных доказательств и с обилием визуальных и численных примеров.Предвосхищая возможные вопросы: я ставлю целью рассказать про минимальный набор знаний, с которым можно будет уже самостоятельно погружаться в более интересные и прикладные сценарии. Я не планирую рассмотрение в этих постах более упоротных разделов и деталей — с такой глубиной можно не на один год увязнуть при знакомстве с математикой для ML

продолжить чтение

SONAR-LLM — учим нейросети думать предложениями вместо слов

Привет, Хабр. Меня зовут Никита Драгунов, я из команды «Интерпретируемый ИИ» лаборатории FusionBrain AIRI. У себя в группе мы активно пытаемся понять, почему большие языковые модели и другие архитектуры ведут себя так или иначе, и разрабатываем инструменты, которые помогают нам в этом разобраться.Среди прочего нас очень заинтересовал сравнительно свежий подход, в котором предлагается перейти от генерации токенов к генерации целых предложений — Large Concept Models, LCM. Мы углубились в эту тему и смогли предложить новый способ, как использовать идею LCM эффективнее. О том, что мы сделали — в статье ниже.

продолжить чтение

Библиотека OutboxML от Страхового Дома ВСК

Хабр, привет! Меня зовут Семён Семёнов, я руковожу Data Science и Machine Learning в Страховом Доме ВСК. В этой статье расскажу, как мы создали систему автоматического обучения и развёртывания моделей машинного обучения с открытым исходным кодом.

продолжить чтение

OpenAI начнёт передавать переписки ChatGPT в полицию

продолжить чтение

Google снизил энергопотребление AI-запросов в 33 раза: что это значит для будущего ИИ

Искусственный интеллект давно вышел за рамки научной фантастики и стал частью нашей жизни — от поисковых систем до чат-ботов и голосовых помощников. Но у этого удобства есть немалая цена: для генерации ответа ИИ расходует значительные вычислительные ресурсы и энергию.

продолжить чтение

Rambler's Top100