stable diffusion.

Концепция Байесовского мозга, или Почему этот заголовок в моменте — ваша галлюцинация

Помните то самое платье?

продолжить чтение

SD Studio: свой Midjourney на своей видеокарте с LLM-помощником

Сперва — откуда взялась идея? Мы с женой делаем текстовую игру по её фэнтези-вселенной. Что-то вроде совместного хобби: ей интересно писать, мне нравится программировать. Но суть не в этом. Рисовать никто из нас не умеет, а картинки в тексте нужны. Сейчас это не проблема — нейросетей куча, особенно для генерации изображений. Но есть минусы: на платных сервисах можно хорошо так разориться, особенно для пет-проекта. Есть решение — Stable Diffusion, генерировать на своей видеокарте. Первые шаги с Stable Diffusion

продолжить чтение

Stable Diffusion 3.5 medium на Apple M1 16Gb

В этой статье, про ИИ, написанной не полностью ИИ, про генерацию изображений - не будет изображений. В конце этой статьи мы будем запускать эту модель на указанном чипе, но начнем мы с чуть более мощного - он понадобиться чтобы разобраться с проблемой.Первая проблема с которой я столкнулся - это потребление памяти. Поиски в интернете, описание самой модели говорили о том что она должна помещаться в ~10GB VRAM. Чего должно с запасом хватать для Apple M1 16GB. Однако фактическое зафиксированное потребление памяти составило 21 GB, не зафиксированное 28 GB (после чего я и начал исследование).

продолжить чтение

Stable Diffusion XL: так ли сложно использовать локальную модель?

продолжить чтение

От Stable Diffusion до тонкой настройки LLM: разбираем новую книгу-практикум

Генеративный ИИ перестал быть магией и стал инструментом. Но чтобы им уверенно пользоваться, нужно понимать, как работают трансформеры и диффузионные модели, и уметь их адаптировать. В этом поможет

продолжить чтение

Kandinsky 5.0 vs Stable Diffusion: практический тест на 6 сценариях для иллюстраций и ассетов

В разработке мне регулярно нужны картинки “вокруг кода”: обложки к техпостам/README, иллюстрации в документацию, а иногда — быстрые ассеты/референсы для пет-проектов.В рамках сезона решил протестировать Kandinsky 5.0 на типовых сценах и сравнить ощущения с привычным пайплайном на Stable Diffusion: где быстрее получить годный результат без плясок с промптом, а где лучше иметь “запасной аэродром”.Под “разработческими задачами” здесь я имею в виду не генерацию кода, а задачи вокруг продукта: обложки к постам/README, иллюстрации к документации и быстрые прототипы визуалов/ассетов для пет-проектов.Методика и сетап

продолжить чтение

Японцу грозит суд за копирование защищённых копирайтом картинок с помощью ИИ

В Японии 27-летнему мужчине грозит уголовная ответственность после того, как он использовал Stable Diffusion для воссоздания иллюстрации, защищённой авторским правом. Затем мужчина продал результат в качестве обложки книги. 

продолжить чтение

Суд встал на сторону Stability AI в деле о пиратстве

Высокий суд Лондона отклонил иск Getty Images против Stability AI, который мог стать самым громким судебным делом в истории генеративного ИИ. Getty утверждала, что модель Stable Diffusion является пиратской копией, ведь её обучали на изображениях, защищённых авторским правом.

продолжить чтение

EA заключила партнёрство со Stability AI

Студия Electronic Arts объявила о партнёрстве с создателем модели генерации изображений Stable Diffusion Stability AI. Она планирует внедрить технологии искусственного интеллекта в процессы разработки игр. 

продолжить чтение

Как научиться писать хорошие промпты для генерации изображений

продолжить чтение