BrainTools - Методики для развития мозга - страница 279

Нейроакварель. Тестируем разные ИИ-решения для создания эффекта живописи красками

Мой арт "Луч осени", доработанный в ИИ-приложении Prisma

продолжить чтение

Стремимся к AGI: обучаем нейросети в экосистеме эволюционно с нуля

Всем доброго времени суток, Хабровчане!В этой статье я покажу, как пытался добиться хороших результатов и создать, что-то умное, поместив это в искусственную среду с такими же нейросетями, которые так же будут конкурировать, общаться, уничтожать и так далее.Это полноценное двухгодичное исследование, подобных экспериментов направленных именно на развитие нейросетей не было, либо они остались неизвестны.ВведениеВозможно, Вы вспомнили об экспериментах на просторах интернета с тем, когда давали список генов существам и также симулировали эволюцию(например, @foo52ru

продолжить чтение

  • Оставлено в 

Сэм Альтман запускает конкурента Neuralink с безоперационным интерфейсом мозг–компьютер

продолжить чтение

GigaChat 3 Lightning: разбираем open source модель от Сбера

Привет, Хабр!В конце прошлого года Сбер выложил GigaChat 3 в open source под MIT. Две модели: Ultra Preview на 702 миллиарда параметров и Lightning на 10 миллиардов. Взял Lightning, развернул на бесплатном Colab, погонял тесты. Плюс разобрался в документации.

продолжить чтение

GLM-Image выложили в открытый доступ. Хороший китайский, транслит вместо кириллицы

Китайские товарищи из Zhipu AI выложили модель для генерации картинок GLM-Image (text-to-image и image-to-image) в открытый доступ.В свой главный сайт z.ai, почему-то сразу не втащили, ещё и старую модель отключили, пока там генерируются только вызовы функции. Но там зато можно бесплатно общаться с их GLM моделью, по качеству довольно неплохая.Потыкал модель на fal.ai

продолжить чтение

Google представила TranslateGemma, открытую модель для перевода на десятки языков

продолжить чтение

Байки математика: «цифра» против «лампы» в химии

Однажды, в начале третьего лета нейронок, на меня вышел представитель одного красного нефтехимического концерна. Прежде, его подразделение занималось цифровыми двойниками производств, но тут тема была интереснее - полидировать тему с машинным обучением для оптимизации Химико-Технологических процессов (ХТП). Соблазн повтирать очки был очень велик, но, я не берусь за проекта, которые сам считаю нереализуемыми.

продолжить чтение

Хочу выстроить понятный трек развития — в этом поможет карта компетенций

Рано или поздно ты задумываешься о том, что засиделся на одной должности, готов прокачивать навыки, брать больше ответственности и двигаться дальше по карьерной лестнице. Бывает и такое, что ты уже вырос из текущей позиции: берешь задачки сложнее, решаешь их быстрее. Например, ты джун, а в работе у тебя то же самое, что и у коллег-мидлов.Как понять, что ты уже готов к переходу на следующую позицию или чего еще не хватает для этого? Да и как подступиться к разговору о повышении с руководителем...

продолжить чтение

  • Оставлено в 

3 проблемы двусторонних маркетплейсов, которые мы до сих пор не можем решить

Когда читаешь о том, как работают с ML в крупных компаниях, всё выглядит логично: разбили пользователей на кластеры, провели A/B-тест, модель показала +5% к метрике — понесли в продакшен. 

продолжить чтение

  • Оставлено в 

Разметка данных: самая дорогая часть машинного обучения

Доброго времени суток, «Хабр»!В предыдущей своей статье я рассматривал различные функции потерь - важную часть машинного обучения. Но даже такие функции совершенно беспомощны перед лицом беспорядка. Сегодня мы рассмотрим то, что предшествует любой тренировке - разметку данных.Как и в предыдущей статье, приведу простенькое сравнение. Если модель - ученик, то разметка данных своего рода учебник, по которому она занимается. При этом создание такого учебника часто оказывается самым трудоемким, медленным и дорогостоящим этапом всего цикла ML-проекта.

продолжить чтение

  • Оставлено в 
Rambler's Top100