Stable Diffusion тред X+55 ====================================== Предыдущий тред >>542817 (OP)https://arhivach.top/?tags=13840 ------------------------------------------ схожие тематические треды - технотред >>543635 (OP) - NAI-тред (аниме) >>545061 (OP) ======================== Stable Diffusion (SD) - открытая нейросеть генеративного искусства для создания картинок из текста/исходных картинок, обучения на своих изображениях. Полный функционал в локальной установке (см. ниже)
⚠️ Стандартные модели stable diffusion (v1.4 - v2.1) от Stability AI значительно отстают по качеству от кастомных моделей (см. ниже). Модели SD XL ставятся и запускаются так же как и любые другие модели SD.
>>547173 (OP) Разбирающиеся в sd аноны, прошу помочь. Кое-как я научился генерировать девок в анфас, но пока что не получается генерировать сложные композиции пикрил 1 и 2, получается мусор или нерелейтед пик 3 и 4.
>>547244 > не получается генерировать сложные композиции Ты всё никак не успокоишься? Ну не может сд в сложные композиции как пик 1, пик 2 ещё кое-как делает xl модель: raw photo of a woman peers out from behind a birch tree, russia 1999
лучшее, что вышло с руками (пришлось их фиксить через regional variation seed). High detail RAW Photo, a girl peeking from behind a tree, placing hand on tree, hand placed on tree, hugging a tree from behind,
>>547173 (OP) Какие чекпоинты работают с lcm-лорой? У меня только Dreamshaper 8 более-менее что-то удобоваримое производит, на остальном - мыльный кал.
>>547197 → Отпускай контроль. Ставь в кнете Ending Control Step на 0.4-0.8, в зависимости от семплера. Лучше позу и кисти рук разбить на отдельные юниты, чтоб для второго держать контроль чуть дольше, хотя я не очень понимаю, зачем.
>>547317 Я так и не понял насчет шагов, тут утилита встренная создал 3 папки. Но там просто img Я щас понял что 40 эпох пиздц, у какого то чела прочитал, что он одну эпоху подрубает и норм, если дата сет больше 10 картинок
>>547355 > AnimateDiff Ещё бы этот кусок кривого кода хоть немного совместимость заимел со всем остальным. Буквально самая кривая хуита из всего что я видел в SD.
(Размер датасетаколичество повторовколичество эпох)/батч сайз. Эпохи и повторы в сущности то же самой. С той разницей, что эпоха, это отсечка, на которой ты можешь сохранить чекпоинт и сверить несколько подряд. Я так делаю по пять эпох, чтоб потом сверить в xyz plot, найти где оно не переобучена. Иногда имеет смысл смержить две модели с небольшим количеством прогонов. Но можно забить хуй и выставить одну эпоху, но тогда в формуле тебе надо посчитать, сколько выставить шагов. Для стиля я бы советовал от 5к до 10к степов суммарно. Для одной эпохи это 125-250 повторов. Для двух вдвое меньше. А что там у тебя за скрипт за тебя решает, сколько ставить повторов, я хз. Хача сборка поди?
>>547363 Если я запускаю тренировку с большим батчем (8, например), то как считать шаги? С батчем 1, допустим, у меня будет 8к шагов, то с батчем 8 должно быть 1к?
>>547370 > Промпт CLIP_G: film still from giallo movie, wide shot of a girl peeking from behind a tree while her hand hugging the tree in the foreground CLIP_L: desaturated, Kodachrome, Lomography, stained, highly detailed, extremely clear sharp focus, film grain, grainy, a girl peeking from behind a tree while her hand hugging the tree in the foreground Negative: blurry, distorted, cross-eyed, ugly, disfigured, featureless, bad features, cgi, 3d render, glitch > модель juggernautXL_version6Rundiffusion > сэмплер Примерно, как тут >>547312 →
>>547371 Смотри, батч, это не просто штука, которая сокращает время на генерацию, это частая ошибка. Он собирает указанное количество изображений в один латент. Но общее количество шагов должно оставаться неизменным. Таким образом для батч сайз 8 тебе нужно увеличивать количество повторов или шагов кратно. Но я не уверен, что это хорошая идея. Если ты хочешь передать именно стиль мазков кистей, свето-цветовые решения, то может сработать. Если различимость объектов всё-таки нужна, я бы оставил 1-2 размер. Но это поле для экспериментов, смотря какой результат тебе нужен
>>547173 (OP) Почему в этой генерации на обычном промпте без портянок тегов вместо лица каша? Почему при подключенном openpose создаются лишние руки и ноги? Как сделать бесконечную стену или куб на котором сверху будет лежать человек, вместо сегментированной стены замка с городом-лесом на фоне?
positive: 1girl, 18 years old woman in underwear, curly long dark hair, a girl lies on the edge at the top of a wall with no edges visible
negative: embedding:FastNegativeV2, embedding:bad_prompt_version2-neg, embedding:badhandv4, blurred, bad anatomy, ugly, lineart, child,
>>547410 > Почему Потому что сд не отрисовывает лица в таких положениях, тоже самое как и с лежачей тянкой со штангой,ну не может он этого делать, даже если обучить лору ничего не получится. Единственный вариант, переворачивать пик и потом инпейнтить.
>>547417 >переворачивать пик и потом инпейнтить А если не переворачивать, а тем же картинкам устроить img2img с маской на лице? Это большая проблема, наверное должна быть лора, которая генерирует нормальные лица в любом ракурсе.
>>547432 Если даже нейронке сказать, что вот тут рука через скелет, она все равно не нарисует правильно руку, если она не знает как рисовать руки в таком положении.
>она все равно не нарисует правильно руку, если она не знает как рисовать руки в таком положении. В интернете полно картинок с лежачими тян и нормальными руками.
>Только я потом еще инпейнтил лица в приближении через detailer. У меня очень много нод находится по слову 'detailer'. Покажи свои ноды.
>>547519 В чем разница между обычным и sdxl энкодером? SDXL лучше понимает разговорную речь, с обычным энкодером это преимущество теряется? Есть профит от тонкой настройки G и L отдельно?
>>547572 Поменял controlnet модель на sdxl версию - не помогло. Загрузил старый воркфлоу - помогло.
>>547449 >Marta Bevacqua Сколько художников и фотографов знает нейросеть? Как понять, если нужного мне она не знает? Я вставляю случайные европейские имена (имя и фамилию) чтобы лица не были разнообразными. Прочитал об этом где-то.
Анончики, у меня для вас реквест Нужен портрет тяночки в реализме. Тян лет 12-14-ти, арийская внешность, светлая кожа и очень светлые, почти белые кудрявые (крупной волной, не совсем завитками) волосы, пухлые губы, голубые глаза. И самое главное: нижняя губа разбита. Можно и кровяной подтек, но лучше если рана будет уже подсохшей, запекшейся корочкой. Одета пусть будет в любой рандомный пуховик, на фоне должна быть зима. В идеале пусть будет лес, но можно любой фон.
Увидел такую тяночку как-то, очень красиво все выглядело. Был бы фотографом - предложил бы сфотографироваться. А пикча мне нужна ибо пишу книгу и визуализация персонажа очень выручит. Спасибо, анончик, с меня заранее сотни нефти и весь чай интернета.
>>547607 А, Алиска Шванкмайера Будучи лютым фанатом "Алисы в Стране Чудес" как явления смотрел очень много разных экранизаций. Эта по скринам выглядит годной и криповой, с налетом Алисы от МакГи, но на деле фильм тухленький. Но надеюсь тебе понравится и ты хорошо проведешь вечер. А сон я позже расскажу. Никто не просил, но расскажу. Потому что могу.
Захожу сегодня в стейбл автоматик и вижу там новую модель в списке https://civitai.com/models/62437/v1-5-pruned-emaonly Скачана была вчера. Я точно не качал это говно и не мог попасть на эту стр. Что за хуйня? Вирус?
Шестой день подряд я всё своё время трачу на эксперименты с sd. Прогресс есть, но до уровня картинок из интернета мне далеко. Не могу больше думать, устал. Скажите, как сгенерировать картинку с цветами и настроением пик2 в стиле наполовину нарисованном, как в дорогом аниме, наполовину реалистичном, где бледнокожая девушка в позе пик1 лежит на грани куба или на вершине стены, границ которой не видно, на девушке мокрое платье в оттенках пик2 и задумчивое чуть грустное выражение лица. С меня - низкий поклон и долгожданное облегчение.
>>547612 > надеюсь тебе понравится и ты хорошо проведешь вечер Спасибо. Фильм действительно понравился. Уровень пиздеца и креативности в условиях небольшого бюджета - самое то, без перехода в разряд ёбаного стыда.
заебали ныть про "только сисик и жопик генерят пидорасы" уже и ебло скрыл, и соски не палю, подход другой который только в сд доступен, художниками обмазываю, а всё ноют
>>547687 Запускаеш блендырь Делаеш стену литералли параллелелелепипед под камерой и нужным углом Ставиш риг https://toyxyz.gumroad.com/l/ciojz в нужную позу на стену Рендериш, получаеш скелет, карту глубин и овердохуя чего ещё Пользуеш это для контролнета, IPadapter для спижживания твоей бабы с реальной пикчи Проходиш вторым проходом LCM, чтобы она обрисовала более когерентно тот бодихоррор что у тебя вышел Зопиливаеш детайлер на еблет и руки/ноги Писоеш Какоеш (рендериш всё в 4к минимум, иначе нейрота пдр клдбщ)
>>547740 >Проходиш вторым проходом LCM, чтобы она обрисовала более когерентно тот бодихоррор что у тебя вышел >Зопиливаеш детайлер на еблет и руки/ноги
>>547728 >Запускаеш блендырь >Делаеш стену литералли параллелелелепипед под камерой и нужным углом >Ставиш риг https://toyxyz.gumroad.com/l/ciojz в нужную позу на стену Звучит просто, что любой школьник за пол минуты сделает (не считая ожидания загрузок). Но блендером я никогда не пользовался. Этот риг можно заменить любым другим редактором скелета openpose? (но не нужно, потому что меньше контроля и нельзя вписывать в композицию другие объекты)
>Рендериш, получаеш скелет, карту глубин и овердохуя чего ещё >Пользуеш это для контролнета, Сейчас я загрузил два контролнета, ipadapter и img2img, рендерится по 3 минуты на картинку (от 4 до 7 it/s), система лагает так что любое видео идёт рывками, как и тяжёлые сайты, в консоли написано lowvram mode при моих 11 гигах.
>IPadapter для спижживания твоей бабы с реальной пикчи У него вроде бы не одна модель, какую именно? Я сейчас использую IPadapter, но не знаю, правильно или нет.
>Проходиш вторым проходом LCM, чтобы она обрисовала более когерентно тот бодихоррор что у тебя вышел Дай подробный гайд.
>Зопиливаеш детайлер на еблет и руки/ноги На картинке ты делаешь стопу в блендере. Зачем?
>(рендериш всё в 4к минимум, иначе нейрота пдр клдбщ) Тайлами рендерить нужно.
>>547790 >Этот риг можно заменить любым другим редактором скелета openpose? Можно, но стену тогда в пеинте чертить придется. И беда в том что опенпоуз двумерный, и сетка может не понять в какую сторону повёрнут скелет, для этого нужна карта глубины. Потому риг и нужен, что рендерит в сразу кучу слоёв, и руки с пальцами прописывает однозначно. Так-то поставить риг в позу в трехмерном блендере куда проще чем в 2Д редакторе, как мне кажется
На картинке просто демка того что может этот риг, как раз именно с разными слоями. Если блендер знать, можно любую хуйню так запилить.
>>IPadapter для спижживания твоей бабы с реальной пикчи >У него вроде бы не одна модель, какую именно? Обычная для слизывания стиля Plus для слизывания всех деталей Face для фейса
>система лагает так что любое видео идёт рывками, как и тяжёлые сайты, в консоли написано lowvram mode при моих 11 гигах. Это норма.жпг поставь --highvram в опциях запуска попробуй, правда рискуешь вылетом по памяти алсо, есть controlnet lora, они меньше по объёму и жручести. Есть ещё t2i adapters, они быстрее, правда результат может быть хуже (например по моему опыту при попытке управления животными опенпоузом они стремятся превратить их в людей). Всегда используй их если это возможно.
>>Проходиш вторым проходом LCM >Дай подробный гайд. img2img если комфи, vae encode в латент -> возможно latent upscale если нужен на деноисе 0.2-0.5 с подключённой LCM лорой и её семплером.
>>547808 >И беда в том что опенпоуз двумерный, и сетка может не понять в какую сторону повёрнут скелет Учту. Я об этом не знал раньше. Возможно, с этим связаны проблемы некоторых моих генераций.
>Если блендер знать, можно любую хуйню так запилить. Например тян со штангой, тян выглядывающую из-за дерева, стриптизёршу, принимающего пищу человека, человека в ванной, чистящего зубы, печатающего за клавиатурой. Сильно.
>Обычная для слизывания стиля >Plus для слизывания всех деталей >Face для фейса Какой для композиции?
>есть controlnet lora, они меньше по объёму и жручести Не представляю, как можно запихнуть контролнет (ноду) в лору. Должно быть очень костыльно.
>с подключённой LCM лорой и её семплером. LCM я знаю как технологию для ускорения рендера.
>>547728 >IPadapter для спижживания твоей бабы с реальной пикчи Зачем мне реальная баба с уже готовой и законченной картинки, если от неё мне нужна только поза?
>Ставиш риг https://toyxyz.gumroad.com/l/ciojz в нужную позу на стену Ставишь... На это уйдёт время. Будет здорово распознавать позы пакетно через нейросеть, и выбирать случайную позу скелета в риге как референс.
>>547822 >LCM я знаю как технологию для ускорения рендера. Она хороша как рефайнер. Финишный img2img рендер. Получается лучше чем один лишь LCM или один лишь обычный рендер. Пикрил "скульптура пожарника в каске времен ренессансе", слева LCM вторым проходом, в центре чистый LCM, справа обычный unipc.
>Какой для композиции? Для композиции лучше юзать контролнет по скетчам и отрендеренным фонам. А IPAdapter plus это по сути лора из одной картинки (четырёх в случае комфи) - он тебе слижет всего персонажа и попытается слизать окружение, которое будет загрязнять выходную пикчу. В этом недостаток подобных zero-shot штук (есть ещё например reference controlnet в автоматике и многое другое) - они слишком примитивны на данном этапе развития, и нельзя фильтровать референс по промпту, например нельзя слизать с него только веснушки, только бабу, только стену, только круглые формы, только тяжёлое но не лёгкое. IP-Adapter также кропает все входные пикчи до 224х224 по центру, так что с длинных фоток края могут просто не попасть в кадр. Остальные подобные методы работают похожим образом. Так что лучше сразу режь входную фотку до 224х224.
Если тебе прям серьёзная копия - лучше лору тренировать. Но IP-Adapter работает в 3/4 случаев неплохо, особенно с анимой. Чтобы слизывать персонажей, бери plus модель.
>Будет здорово распознавать позы пакетно через нейросеть DWpose preprocessor распознаёт позы с фотки очень хорошо. Но он генерирует пикчу. Чтобы сразу в 3D перегонять - я такого готового не знаю. (хотя наверно есть не готовое, но это ебаться надо, ну его в пень)
>>547831 >слева LCM вторым проходом, в центре чистый LCM, справа обычный unipc. По центру мусор, слева и справа скорее различия в художественном содержании скульптуры нежели в качестве нейросети.
>>Какой для композиции? Я имел в виду для позы. Поза это не стиль и не совсем детали, и не только лицо.
>А IPAdapter plus это по сути лора из одной картинки (четырёх в случае комфи) Почему лора? Почему четырёх?
>он тебе слижет всего персонажа и попытается слизать окружение, которое будет загрязнять выходную пикчу. Я использую его в своём временном сетапе чтобы скопировать тёмно-синий цвет и океан на фоне. Так бы использовал ControlNet Shuffle, но он не работает с SDXL. Получается пикрил.
>DWpose preprocessor распознаёт позы с фотки очень хорошо. У него разные модели выдают разный скелет. Под мою генерацию лучше подошли yolox_l.onnx и dw-mm_ucoco.onnx, он в отличии от дефолтного не стал задирать левую (дальнюю) ногу ввысь, и правильно сгенерировал пальцы на руке что поддерживает голову, но не сделал кусок этой руки ниже пальцев. Хотя результат хорош.
>>547728 >Ставиш риг https://toyxyz.gumroad.com/l/ciojz в нужную позу на стену Статья написана непонятно. Не ясно, откуда скачать rig_tools_3.67.12.zip, нет заголовков. И вёрстка кривая.
>>547837 >Не ясно, откуда скачать rig_tools_3.67.12.zip В комплекте с ригом идёт в архиве. Видосы всё поясняют. >Почему лора? Почему четырёх? Потому что работает похоже на лору, меняет веса, а не как контролнет, который меняет кондишионинг. Четырёх, потому что есть сумматор на 4 пикчи, правда больше 3 начинает хуйнёй страдать. >Я имел в виду для позы. Для поз он вообще не годится особо. Он литералли разбирает пикчу на запчасти, которые потом высираются в выход в перемешанном виде. Среди них может быть и поза, а может и не быть.
А почему такая шняга выходит у тебя - хз если честно.
>>547955 Никак, если только самому обучить цветовой контролнет, но это пердолинг тот ещё. Ну или фотожабить, но предполагается что цветовой контролнет красит с учётом семантики.
zdyna_pose dashcam closeup view of putin flying careening sideways across the hood of a car (motion blur:0.2), action shot in Moscow, Kremlin in background
>>548000 В последней версии он натренировал модель на порнуху, так что она, если только в промпте есть что-то отдаленно связанное со словом female, стала генерить, соответственно, порнуху, в лучшем случае - фотомоделей в эротичном белье. Какому же цивитаю такое понравится?
>>548000 Он сначала обосрался со своей аниме моделью, которая оказалась просто стыренной чужой моделью даже без тренировки. Потом он обиделся на то, что ему не дали полностью заблочить отзывы к своей модели и свалил недалеко https://huggingface.co/XpucT
>>548012 Почти все модели из топов Civitai умеют в центральные процессоры чел.
>>548000 >>548014 А разгадка проста. Местный шиз завайпал хачевые страницы хейтмэйлом, а хач обиделся, что мод не хочет ежедневно чистить говно. Классическая история.
>>548023 Разобрался, надо было выбрать объект. Очень сложное управление. Вокруг непосредственно точек сгиба тела есть какие-то тонкие шарики и круги, хз что они значат, я отдельно двигаю их и отдельно двигаю точки сгиба.
>>548044 И да, это аниме-ориентированный риг, если с него рендерить реальных персонажей, надо уменьшать голову-глаза и т.п. чтобы пропорциям соответствовать. Ну или вообще своё слепить, для этого конечно надо знать блендер и вообще 3Д
>>548000 > а чо хач Deliberate удалил с civitai? Хач расстороился и обиделся на коммьюнити которое не вознесло его дебилирейт v3 в топ цивиты, ведь он пол года собирал лучший и самый большой датасет который превосходит мижорни и любые sdxl, он в одиночку сделал то что не смогла вся стабилити за полтора года. А с ним вот так поступили, несправедливо.
>>548070 Хуй знает откуда артефакты. Ты для начала попробуй обычную сгенерить без артефактов, а потом уже подключай второй этап и т.п. Алсо, проиграл с позы. Оказывается чтобы позы и пропорции понимать, тоже скилл нужен
>>548080 > Я с sdxl работаю Это как-то отвергает арументы о несовпадении AR картинок контролнета и латента, с которым ты работаешь и пропорциях скелета? Алсо, разрешение увеличь до подходящего для сдхл.
>>548103 >Начни с простого, как только научишься простому иди в сложное. Я уже пробовал простой промпт (пик1). Здесь мало контроля, запросы сложнее чем "тян в анфас" будут либо кривыми либо неподходящими. Или ты говоришь о постепенном наращивании воркфлоу?
>>548093 Понял свою ошибку, поменял разрешение на кратное 2:1. >>548098 Без кенни и правда лучше. Но ты сблефовал, показал мне цыплёнка, у которого нет пальцев и человеческого лица.
>>548105 Как подправить? Я блендер сегодня в первый раз запустил. Может, есть где-то скелеты с нормальными пропорциями.
>>548103 >И вообще для начала лучше самому скелет не делать, а брать его с фото настоящих людей или скринов из фильмов. Тогда я не смогу вписать объект (штангу, стриптиз-шест, раковину, стол).
>>548112 > нет пальцев и человеческого лица А хули там показывать? Размер пика, который сдхл может переварить не зависит от того, цыпленок там или телочка, и именно об этом я и говорил. 1 - openpose+softedge (понятия не имею, где брать нормальный кенни или лайнарт для sdxl), 2 - только openpose, у тебя на втором референсе хуйня с анимешной головой и рваными линиями на руках и ногах.
>>548070 еще не используй LCM, когда подключаешь контролнеты, так как они рассчитаны на стандартные модели а не эксперимент с ускорением.
Если не хватает памяти и долго ждешь, то используй sd 1.5, а еще лучше аниме модели на основе 1.5, так как они обучены на нормально протегированных картинках с позами.
с 1.5 тебе нужно либо использовать новый hires от Kohya или апскейлить картинку после генерации чтобы не получалось всрато.
4 картинки без отсеивания плохих. Ошибка в промпте - вместо '23 years old woman' вставил girl=девочка, и купальник не раздельный. Действительно, Canny в говно превратил.
>>548115 >1 - openpose+softedge (понятия не имею, где брать нормальный кенни или лайнарт для sdxl), 2 - только openpose Говно и говно.
>>548127 >еще не используй LCM, когда подключаешь контролнеты, так как они рассчитаны на стандартные модели а не эксперимент с ускорением. У меня LCM для img2img. Как мне посоветовали итт.
>Если не хватает памяти и долго ждешь, то используй sd 1.5, а еще лучше аниме модели на основе 1.5, так как они обучены на нормально протегированных картинках с позами. А если я хочу реализм вместо аниме?
>с 1.5 тебе нужно либо использовать новый hires от Kohya или апскейлить картинку после генерации чтобы не получалось всрато. Он не только повысит разрешение, но и добавит детали, исправит анатомию? Он может превратить аниме в реализм?
>>548144 >>548115 >>у тебя на втором референсе хуйня с анимешной головой и рваными линиями на руках и ногах. Как вариант, можно первым проходом сгенерировать с openpose набор девок, и наиболее подходящую для твоей задумки обработать в cannyedge препроцессоре, и получившийся набор линий использовать как подсказку, по которой нейронка сделает подходящее наполнение.
>>548127 >еще не используй LCM, когда подключаешь контролнеты, так как они рассчитаны на стандартные модели а не эксперимент с ускорением. LCM лора абсолютно спокойно поддерживает контролнет, всё работает и ломаться не должно. Другое дело что нет особого смысла вкорячивать контролнет во втором проходе (LCM или нет), суть чтобы сделать общую композицию правильно в первом, а второй уже обрисует то что есть по промпту. Т.е. либо не подключать контролнеты в LCM вовсе, брать чистую модель и чистый промпт, либо максимум скелет туда подложить.
Какие значения ставить в resize_scale_1 и resize_scale_2? На что они вообще влияют? Видел тут в треде такую же ноду у анонов, но там этих полей не было вообще. Если что, я копировал код ноды с gist github какого-то чела.
>>548223 > я копировал код ноды с gist Комфи обнови. Она уже в ванилу вмержена. > Какие значения Downscale factor - то, на сколько будет уменьшена хуйня на на первых этапах генерации. Если переводить на хайрез фикс, то это считай изначальное разрешение. Т.е. с обычным хайрезфиксом ты выбираешь 512х768, апскейлишь в 2 раза и получаешь 1024х1536. А тут ты изначально выбираешь 1024х1536 и на первых шагах уменьшаешь до понимаемого моделью разрешения, значит Downscale factor должен быть тоже 2, чтобы получить 512х768.
>>548261 В том и проблема. Любой лайн, дизеринг, или зерно у него всегда выдаёт артефакты >>548237 >Hampstead >Индийскую ссанину, листьями которой подтирали жопу индусы А какая разница? Просто хамстед повыше сортом, но собирают-то всё равно индусы. Или китайцы. Или на Шри-Ланке. Те же индусы, блет. Пуэр так вообще в компостной куче гниёт несколько лет. >>548098 А можно этой хуйнёй управлять собакой или лошадью, например? И приделать хвост в виде ещё одной конечности.
Тащемта 4 конкурсные работы, 2 из прошлого треда Хз буду ли я делать еще одну, кажется, я проебал вообще всю свою фантазию и будто бы ничего прям эпичного уже в голову не лезет
>>548298 Модели shuffle там нет, recolor нужен скорее для чёрнобелых фото. К тому же recolor для sdxl это lora, то есть вместо референсной картинки с цветом нужно методом тыка искать промпт.
>>547173 (OP) Я надеюсь я куда нужно с этим вопросом. Чюваки, помогите ретарду понять как устанавливать кастомные ноды на ComfyUI. Я ниче не понимаю даже в простецкой вроде инструкции (пик 1). Первый пункт - открыть повершел в папке custom_nodes? Или открыть повершел и написать там cd custom_nodes? Нихуя непонятно. Сделал по первому сценарию, перешел ко второму пункту, вписал эту ахинею в строку, нажал интер - получился пик 2. Я бля себя снова чувствую пиздюком, который разбирается как юзать кряк для Spore и не засрать весь комп порнобаннерами.
>>548409 Ну такое. Всратый магшот трампа - 20+ пальцев и хохочущих колобков, а мои супер охуенные арты, достойные самых престижных выставок, утонули в небытие. Это блядь конкурс 404 или выборы на год раньше?
>>548576 > Заведи друзей Ну это уже перебор. >>548581 > это какие? Охуенные. Их там всего 5. :3 >>548585 Вот и я о том же. Большинство пикч там просто рандомная хуйня и 404 где-нибудь написано.
Мои из >>548397 Как раз про компы, но горящие. Типо реально +- не в тему только последняя, а горящий мех, который пытается горящий сервер починить, я считаю вообще охуенной совей работой Но больше пиздатых идей будто бы нет
>>548480 спасибо, но я походу даже для этого туп. В инструкции для портативки написано "Download scripts/install-manager-for-portable-version.bat into installed "ComfyUI_windows_portable" directory", я кликаю - вылезает страница с тремя строчками кода и всё (пик). Че мне с этим делать? Вбить построчно в консоль в указанной папке? Сделать txt и вручную сохранить как .bat? ЯНЕПОНИМАЮ! Написано же даунлод( А получается что даун тут только я((
>>548759 спасибо, но я походу даже для этого туп. В инструкции для портативки написано "Download scripts/install-manager-for-portable-version.bat into installed "ComfyUI_windows_portable" directory", я кликаю - вылезает страница с тремя строчками кода и всё (пик). Че мне с этим делать? Вбить построчно в консоль в указанной папке? Сделать txt и вручную сохранить как .bat? ЯНЕПОНИМАЮ! Написано же даунлод( А получается что даун тут только я((
>>548962 >>549010 >>548724 >>548714 Только ради такого ещё захожу в тред. Приятно знать что не все здесь сидящие дегенераты, которые могут только в сиську письку.
>>549054 Смысл его экономить? Вот от такого пиздеца мозги и охуевают. Лучше в группы собрать, с чётким выходом в каждой, будет куда понятней что эта или та куча делает.
>>549058 > Смысл его экономить? Чтобы превью сэмплера всегда было недалеко от промпта, например. А наличие или отсутствие цветного прямоугольника группы никак не мешает определять, что к чему относится.
>>549017 У меня в целом такое ощущение от всего рабочего окружения SD, питона, кучи накачанного говна, которое постоянно обновляется и устраивает по 10 раз на дню.
>>549126 Вообще до мурашек ненавижу питон, и не понимаю, как он стал ведущим языком в датасаенс. При работе с большим объёмом данных нужна производительность, и при таком главном запросе победил самый низкопроизводительный язык.
из-за этого говноязыка половина возможностей железа просто нереализована, пока инженеры техпроцесс дожимают до конца физических возможностей, ЛГБТ-разработчики пишут своё говно на питоне
>>549133 > При работе с большим объёмом данных нужна производительность Все либы на нативных языках написаны, питон только как скриптовый язык. > просто преобразовав код в С++ получается 2х производительность Там производительность берётся из оптимизации коды куды, а не питона. В торче пайплайн модели компилируется своим JIT, при вызове forward полторы строчки кода выполняется на питоне. Чтобы упереться в питон - это надо на отлично ебануться с десятками тысяч строк говнокода. Даже ExLlama с обёрткой HF не упирается в производительность питона при 100+ т/с. > если бы это сразу всё писалось на С++, какие бы тогда возможности были Тогда бы была возможность писать код на крестах и каждый раз перекомпилировать всё, получая ноль производительности и кучу багов. Тебе никто не мешает торч из крестов использовать, на крестах есть полностью весь функционал торча, без всяких питонов. Получишь ровно нихуя кроме пердолинга. > из-за этого говноязыка Из-за питона огромное количество людей занято полезными вещами типа разработки архитектур и новых технологий вместо того чтобы пердолиться с кодингом. Без питона сидели бы на Джулии или R. Тогда бы ты был доволен, да?
>>549126 Понимаемо. Питон кусок говна. Правда скорее не по своей вине, а потому что им приходится паковать пакеты, написанные на куче разных языков и экосистем. Потому всё это без конца конфликтует.
>>549133 90% перформанс кода и так написано на подходящих языках. >https://github.com/facebookincubator/AITemplate >просто преобразовав код в С++ получается 2х производительность Это не преобразование кода в С++, это "генератор движков" для конкретной модели. C++/CUDA там машинно-сгенерированы, и участвуют как промежуточный этап лишь потому что для них уже есть готовые компиляторы, берущие на себя низкоуровневую часть. Писать на них там ничего не надо.
>>549156 >Без питона сидели бы на Джулии или R. Тогда бы ты был доволен, да? Джулия годный и простой язык, я бы был доволен
хочу сказать добра этому треду и много спасибо отзывчивым анонам. я поставил easy diffusion и ворвался в прошлый тред с вопросами, и мне всё подсказали и указали. первые мои картинки генерились по 40 минут и я делился этим здесь.
сейчас я развлекаюсь с нормально настроенным Automatic, который куда более easy чем ссаный easy diffusion. я понял воркфлоу и суть настроек и теперь картинки, во время промптинга, генерятся за несколько секунд и хайрезы выглядят неплохо.
правда генерить что-то за пределами сисек, тёлок и порнухи оказалось чуточку тяжелее, но и куда интереснее.
>>549163 >>549133 Нормально делай — нормально будет. Проблема питона в том, что у него ультранизкий порог входа. Поэтому каждая кухарка, которая вкатывается в айти, не имеет при этом не то, что базовых знаний, а не знает даже блять азов по алгоритмам и структурам данных.
>>549193 >которая вкатывается в айти Вот здесь у тебя ошибка. Не в айти, а в продвинутую автоматизацию рутинных действий(вычислений). Им нахер не нужны твои плюсы или расты.
>>548044 >Открой версию v94, в ней добавили много чего (у тебя v92) Открыл. Вижу совсем не то что показываешь ты. Еще когда двигаю конечность, почему-то двигается вторая симметричная ей конечность.
>>549265 Разобрался, надо было в верхней строке выбрать Layout. Теперь другая проблема - когда я выбираю узлы, локти например, то скелет не двигается, а вместо этого двигается какая-то фигура с тонкой обводкой, обозначающая наверное служебный слой. И не все узлы доступны.
>>549270 Там есть точки которые определяют куда указывают глаза или локти. Некоторые отвечают только на вращение, некоторые на масштабирование, некоторые на перемещение. Некоторые на всё вместе. Это конечно если ты как здесь всё делаешь. >>548044 >Это аниме модель, с большой головой и глазами. Голову можно масштабировать, пропорции туловища тоже поправить как здесь показано, и т.п. >>548044 Там овердохуя разных крутилок, почти всё можно сделать.
>>549275 >Там есть точки которые определяют куда указывают глаза или локти Как локти могут указывать?
Я их выделяю с трудом. Чаще всего мне кажется, что я выделил точку случайно, и во второй раз выделить ту же точку могу далеко не с первой попытки. Многие точки как будто бы недоступны. Не понимаю.
Аноны, вопрос насчёт видеокарточки для генераций - влияет ли на скорость/качество генераций факт того, что карточка LHR? Или похуй? Заодно подскажите лучшую карточку по соотношению цена/скорость генерации, я знаю тут сидят те кто в курсе.
Вопрос тупой, влияют ли на генерацию дополнительные пробелы и двойные запятые? Ну и вообще дайте гайдов по синтаксису, как там прерывать промпт на середине, подмешивать в шаги разный промтик, я знаю вы умеете тут
>>549333 >Как локти могут указывать? У суставов куча степеней свободы >Я их выделяю с трудом. Временно выключаешь depth модельку (иконка глаза напротив слоя Depth_full), приближаешь, тыкаешь куда надо. Например.
А вообще прошаренные аниматоры юзают какой-нибудь плагин который позволяет быстро выбирать и таскать в нужные позы всё это, например автор рига юзал платный плагин Auto-Rig, но это не обязательно.
>>549371 Влияет только близость одних токенов с другими, выученная при тренировке сети. Посмотри на мусорные теги в датасете LAION и поймешь. >Ну и вообще дайте гайдов по синтаксису, как там прерывать промпт на середине, подмешивать в шаги разный промтик, я знаю вы умеете тут Зависит от того что ты хочешь.
Блядь, что я делаю не так? Почему это ебаное говно игнорирует два контролнета и срёт руками, которых быть не должно, игнорирует шест, который должен быть? Почему сука? Где я ошибся? Как сделать правильно?
>>549439 >>549448 Также в сочетании с разными объектами рассмотри разные контролнеты. Segmentation например позволяет задавать дополнительную семантику - вот есть у тебя несколько объектов, раскрашенные в разные цвета, и один цвет означает "человек/персона", другой "собака", "ограда", "перила", и т.п. В этом риге есть заранее пресеты для всех цветов, в asset browser.
>>549475 Я пока вообще невдупляю, нахуя вам эти ноды, если они ничего не дают, там всё захардкожено, воткнуть пин можно только в одну другую ноду и больше никуда.
Ноды нужны для сложных нелинейных систем, когда тебе надо, например, сгенерировать изображение, потом прогнать его через i2i с другой моделью, потом апскейлнуть, потом ещё что ни будь, и всё в одном графе, чтобы это не руками всё поэтапно делать.
>>549478 Я пока и не пользовался ими, просто наблюдаю. Но вроде все же это прикольно. Можно настроить один раз какой нибудь пайплайн генерации и пользоваться им, а в автоматике что бы это повторить надо по вкладкам прыгать туда сюда. А тут один раз настроил и пользуйся.
>>549486 Пикчу в PNG info закинул и все параметры перенеслись. А тут хуй поймёшь где у тебя что.
Для больших пайплайнов да, ноды идеальный вариант, но пока таких что-то особо не видел, вижу только много ёбли, а результат в итоге лучше на 5% и то спорно.
Если я сгенерировал челика, и мне понравилось лицо, как мне сделать, чтобы сд генерировала с таким же лицо другие промты? А если нужно сохранить не только лицо, но одежду, комплекцию, но поменять позу?
>>549547 Я о таком пременении что-то даже не думал. Это комиксы получается можно полноценные делать? Чтобы один и тот же персонаж был. мимо другой анон
>>549666 Не понимаю я эти ваши эмбеддинги. Вообще не помогают, а просто меняют картинку, чаще не в лучшую сторону. Руки как были хуйней без эмбеддингов, так и остались с ними, так что какой смысл ими пользоваться, я хуй знает.
Проблему большого кол-ва нод можно решить плагином который позволяет сохраненный воркфлоу в качестве ноды использовать.
Можно понаделать шаблонов для подключения адаптера, контрлнета, анимирования, различных нод генерации для ксемплера и будет более менее понятно что происходит.
>>547361 Плюсую, у continue revolution все через жопу. Даже segment anything - такой же пиздец. Хотя он хотя бы не ломается через пару генераций, как animate diff
>>549810 Так это очередная вариация TRT, только в другой обёртке. Всё так же "компилирует" модель и ломает совместимость со всем остальным. Ещё и платная версия есть с "фичами" для срубания бабла с лохов.
>>549666 У меня несколько мастерписевых негативов типа EasyNegative, fcNeg, UnrealisticDream, несколько стилевых вроде Style-Glass и полторы сотни негативов на разных тянок. >>549704 Ну, для изменения картинки и пользуюсь. Вот например один промпт, один сид, разные тяно-эмбеды. Помогает от сэймфейсов, можно скачать пару-тройку сотен и запихать в вайлдкарту. Ещё их можно смешивать в промпте. С эмбедами на руки это как повезёт. Можно добавить в попытке починить конкретную картинку, иногда помогает, хотя на нормальных моделях лучше без них генерить по умолчанию.
>>549810 > как сделать его еще быстрее. И что дальше? Где контент? В треде я вижу только одну пиздаболию на 300 постов. Контента тупо 0. Мёртвый тред. Мёртвая сетка.
>>549965 Анон, я смотрю у тебя тоже разные генерации по одному промпту генерят одно и то же лицо. Я на реддите прочитал, что можно добавить в промпт случайные женские имя+фамилию, тогда будет генерить разных людей.
>>550042 Имена не все годятся. То есть если выдумаешь имя, оно его просто воспримет как индифферентную часть промпта. А если имя какой-нибудь квази-знаменитости, хоть немного известной SD, то нарисует похожее на знаменитость. Или постарается сварганить что-то синтетическое на основе похожих на знамениоость лиц. Как-то так.
>>550036 >Жаль, не могу в нормальном разрешении рендерить из-за 2GB VRAM. Братан, ты мог бы брать качеством, а не размером. Что за страшные грабли вместо рук? Где детализация, нормальный фон?
>>550063 Я еще пока учусь. Ну (masterpiece, best quality, highly detailed, 8k uhd) в начале промпта стоит. Пока хз что там еще добавлять.
>>550069 Спокнись, братишка. Я просто решил поделиться тем что нагенерил, у меня нет желания впечатлить лично тебя. И с civitai я не копировал отнюдь. Тем не менее, спс за комплимент, видимо мои промпты уже как минимум не хуже сивитаевских. Про tiled vae я знал, а вот про tiled diffusion - нет. Тут спс за наводку, почитаю. А ноды в воркфлоу я подключать умею, так что тебе незачем создавать впечатление охуенного гуру-гейткипера. Только дурачком предстаешь.
>>550055 >>550058 Значит нужно составить полностью случайное имя, желательно имя и фамилию из разных культур (как финское имя и сербская фамилия), потом загуглить и убедиться, что под такими именем никаких знаменитостей нет. Мне помогло. А то одинаковое лицо на промпт бесит.
Еще вопрос, есть тут кто шарящий в ComfyUI? Юзал стандартные апскейлеры встроенные, получалось неплохо но все равно было мыло. Увидел вчера https://youtu.be/t3lT_04A9j0?si=qgiJUaP4Clvgm20q, накатил манагер и импакт. Вчера прогнал пару раз было заебись, результат такой же как в видео. Сегодня выкинул лишнее но структура осталась как в видео, и блять он не апскейлит именно ту картинку которую я загенерил в маленьком разрешении, создает новую и зачастую выходит шлак. Процентов 10 если нормально получится как в видео, сегодня весь день дрочился так и не понял от чего зависит эта хуйня, юзал поотдельности пикрил верхний и нижний блоки, разное кол-во шагов, кароче дрочил все настройки, так и не получилось. Так у меня теперь к концу дня изначальную картинку стало факапить с уже проверенным промптом и и моделями, че за хуйня? Че все посыпалось? Нейросетка натренировалась на кале?
>>550059 докину картинок, чтобы подсветить. пока выходит хуета и шум, да ещё и "околореалистично", я же хочу такое, но в стиле аниме 80х - жирные контуры, тени, и общая "плоскость" картинки.
пробовал через SD XL чекпоинт - там вообще чепуха получилась, с текущим промптом
>>550111 Похоже на то, что ты выставил слишком высокий денойз для апскейла.
Вообще выглядит как ослажненный hiresfix. Простой один проход апскейла со средним денойзом даст такой же эффект, как и все проходы из твоего гида.
>>550133 У тебя денойз равен 1 (100%), конечно на апскейле у тебя будет генериться новая картинка. Таким макаром проще сразу использовать deep shrink от Kohya.
>>550136 >>550140 >денойз Ебать а че это он так факапит? Я насколько понимаю это просто чтобы шумы убирать, лол блять. Щас прогоню пару раз напишу че как >>550130 Куву сосал?
>>550152 >Я насколько понимаю это просто чтобы шумы убирать Понимаешь строго противоположно. Denoise не убирает шум, а добавляет его (да, хер знает почему он так тогда называется). Значение 1.0 денойза это полностью покрытая шумом картинка - то же самое что и новая картинка с чистого латента. Чем ниже ты ставишь денойз тем меньше меняется картинка на этапе img2img, inpaint, апскейла и прочего.
Реально починилось, балдёж, спасибо анончики. И сисик нормально загенерился сразу. Только я теперь вернулся к изначальной проблеме, с 3 пик блоками картинка становится очень пиксельной, это чем-то фиксится или выравнивается денойзом? В какую сторону копать
Переключиться c Latent на Image, сменить VAE, повысить target_denoise (хуй знает на сколько, я этот апскейлер не использовал, начни с 0.2, например). Как вариант, апскейлить одним проходом без итераций или генерировать сразу в нужном разрешении с Kohya Deep Shrink, как тебе другой аноним советвал выше.
>>550310 Поставил openpose на 0.4, depth на 0.2, результаты пикрил. Говно чередуется с картинками, которые уже можно обработать чтобы получить годноту. Исправить руки, исправить лицо, всё это сделает img2img и апскейл. Фон ещё можно разнообразить, будет здорово если подскажешь как. Разрешение выставил ниже чем нужно для SDXL, завтра поправлю.
>>550698 А чего ты ожидал? Видео-модели и без того нихуёво жрут. Чтобы делать что-то серьёзное (когда они начнут уметь в серьёзное), в любом случае придётся A100 арендовать.
>>550152 >Ебать а че это он так факапит? Я насколько понимаю это просто чтобы шумы убирать, лол блять. Разберись как работает дифьюжен модель, блять. (из шума проявляется пикча, процесс обратный тому что был при обучении)
2023-11-22 09:33:32,011 - AnimateDiff - INFO - Injecting LCM to UI. Нейроанонасы, че это значит? я до этого использовал лору лцм, сейчас че семплер появился и можно лору не прописывать? Не, ну качество конечно так себе стало, зато бысто пиздец 16 кадров за 40 сек
>>550698 Пишут, что на 24Gb VRAM удалось запустить, но либо в микро разрешении 256х256, либо один кадр генерирует. Для нормальной работы надо 80 гигов VRAM. В общем, не для домашнего использования.
>>550966 > Пишут Да там какие-то дауны в fp32 запускают. Это просто кастомный SD 2.1 768 с моушн-моделью. В Amimatediff с кастом весов в fp8 уже SDXL лезет в 24 гига при разрешении 1024х1024. Ждём запил нормальной поддержки в автоматике и там посмотрим.
>>551079 Спасибо. Решил попробовать SDXL но не понял чем она лучше. Вроде так же генерит как и SD только ресурсов больше требует. Для моей карты многовато. Вылетает часто. Вернусь обратно к sd.
>>550126 в общем мне просто опыта промптинга не хватило, сейчас покрутил промпт и теперь любая модель выдаёт то, что нужно. пенял на зеркало короче, а рожа оказалась крива.
вот пытаюсь понять как сделать это чуть более плоским и близким к анимации, без выпуклых текстур
>>551175 Конечно зашквар. Также зашкварно пользоваться дримбудками, мерджами, контролнетами, весом токенов, хайрезфиксом и т.д. и т.п. Тру-нейро-профессионали генерят исключительно на чистой sd1.4 через консольку.
>>551190 > зашкварно пользоваться дримбудками, мерджами, контролнетами, весом токенов, хайрезфиксом и т.д. и т.п > Тру-нейро-профессионали они сейчас все в соседнем треде сидят и генерят брата близнеца не раяна гослинга по имени боб?
>>551114 >вот пытаюсь понять как сделать это чуть более плоским и близким к анимации, без выпуклых текстур и2и зафигарь под канни-контролнетом и с какой-нибудь лорой на занижение деталей. Та же AddDetails с отрицательным весом может интересный результат дать. Или что-нибудь из серии flat-аниме.
Кажется я нашел оптимальные настройки для HyperTile.
Раньше он был нахуй не нужен, так как ухудшалось качество и прирост в скорости был не так заметен из-за того, что процесс всегда делился на txt2img и апскейл.
С Deep Shrink от Kohya его актуальность повысилась, при нативной генерации картинки разрешением в 2.5 раза выше стандартного, ХайперТайл дает у меня в два раза больше скорости (с 40 секунд до 20 секунд на такую картинку).
>>551248 Вот уж не знаю, где ты там "меньше" нашел. Гостинг и там, и там есть. Только на второй с конечностями все плохо - у лошади копыто протерялось, и у девушки вместо ноги - рука получилась.
>>550934 Continue revolution снова доказал, что он еблан. С пафосом добавил lcm семплер в свое расширение, даже не убедившись, что lcm вообще работает с animate diff
>>551268 Забыл добавить 1-ый пик с HyperTile (21 секунда) 2-ой пик без HyperTile (42 секунды)
Понятное дело, что две ноды FreeU нельзя подключать друг за другом, это я просто чтобы параметры было видно их активировал, а так я их байпасчу через одного.
>>551268 >Правда может быть тут еще тащит FreeU_V2 Как для него вообще коэффициенты выбирать? Выглядит как алхимия или вызов духов, неконтролируемая хернь.
>>551218 >Если модель что-то не знает, то она это не знает, хоть как не пиши промпт. >Соответственно единственным вариантом получить от модели то, что она не знает, это дообучить ее или обучить лору. Фикус в том что любая модель знает гораздо больше чем ты можешь получить через промпт (даже если магически поднять его понимание до далле-3). Комбинация промпта с нетекстовыми методами (контролнеты, reference only и т.п.). позволяет указать куда более точную точку в латентном пространстве. Если комбинировать несколько разных мод, да ещё пройтись мультипроходом и юзать зерошот методы (IPAdapter), вполне может оказаться что никакие лоры и не нужны вовсе, а нужна просто дженерик модель приблизительно такой-то направленности (реализм, аниме и т.п.).
>>551175 Никакие тру-профессионалы пока что с нейросетками не работают, потому что они не выдают нужного. А так чисто текстовый промпт - это хуйня. Вкладывай в него минимум, и комбинируй с контролнетами и т.п., потому что так можно добиться большего меньшими усилиями. И только потом уже лоры, т.к. обучение это трудоёмкая задача пиздец.
>>551344 >>может оказаться что никакие лоры и не нужны вовсе Это почти как с бритвой Оккама, если есть лора, которая блестяще выполняет нужную задачу, и с другой стороны возможность знатно станцевать с бубном, комбинируя все и вся со множеством мультипроходов, то быстрее воспользоваться лорой.
>>551306 Хер разберешься. Это только если на промышленном масштабе не делать XYZ плоты. Сам не помню откуда стырил параметры для него, то ли у анона с форчана скопировал то ли у ютубера какого-то.
Как хайрез фикс работает в автоматике? В описании написано, что это эквивалент "Сгенерировать в низком разрешении -> заапскейлить -> прогнать второй раз" в img2img, но это нифига не так. Мало того, что шаги апскейлера похоже не совпадают, так второй прогон всегда чуть мылит картинку, в то время как в фиксе результат довольно четкий. У кого-нибудь есть мысли?
>>551404 Именно так и работает. Берешь картинку 512x512, во вкладке extras апскейлишь в 2 раза, потом в img2img нажимаешь взять разрешение картинки (1024x1024), ставишь денойз, копируешь промпт из txt2img, ставишь галочку do exactly steps the slider specifies, и все. Результат такой же
Можно вместо шага с extras установить разрешение 2x, и настройку upscaler for img2img поменять
Или можно тупа ultimate sd upscaler использовать одним тайлом
>>551411 Оно все равно совпадать не будет. Даже при абсолютно идентичных настройках, и даже если скармливать вручную увеличенную картинку как исходник в и2и.
>>551411 Ты сам пробовал, результат точно такой же, как и в фиксе? Просто у меня хрень какая-то выходит, картинка очень близкая, но только если шаги апскейлера чуть уменьшать, и все равно второй проход мылит. Сейчас хуйню какую-нибудь сгенерирую, покажу о чем речь.
>>551376 Это да, только это редкость. Лора нужна строго под то что ты хочешь, либо будет пидорасить результат. Т.е. надо либо искать прям совсем нужное, либо тренить. >>551382 Ну конкретно в твоём посте (и предыдущих аналогичных) кроме пиздаболии ничего нет.
Хочу погенерить себе изображения монстров за бесплатно. Сначала найти/сгенерить какую-нибудь картинку как основу, а потом менять у нее детали. Что посоветуете для того чтобы менять детали (допустим, цвет или стиль)?
Сейчас я играюсь с fusionbrain ибо у него классная фича с возможность стереть ненужное и нагенерить, что на место. А нужна она мне потому, что fusionbrain и civitai рисуют глаза, даже если в промте ставить eyeless, а в негативе eye. В меня чот закончились идеи, как это обойти.
>>551411 Так, отбой. Я экстры не пробовал, действительно, "мыльность" из-за того что я апскейлил ультимейт апскейлом, а не самым простым. Результат не 100%, но это ладно, так что спасибо. Видимо апскейлеры из img2img автоматом второй проход делают или что-то типа того, так что я уже третьим мылю.
>>551376 Оккам уверен что поставить перса лорой в нужную позу чаще всего сложнее, чем накалякать человечка из палочек или двинуть точки на опенпозе в комбинации с тривиальным промптом
Эт получается, что не получится обесцветить фотку в img2img? В промпте пробовал: black and white, bw, b&w, black and white style и в начале и в конце промпта - нихуя
>>551543 > не получится обесцветить фотку в img2img? Получится, если въебать 1 денойза с контролнетом (пик1), softedge например. Но сходство не гарантируется (пик3). Ну или пик3, если не смущают спагетти.
Давненько я не заглядывал, а терки все о том же... Не согласен в аноном выше про инструменты, мне лично лень все это изучать в мои годы, пэйнт - верх моих познаний в графике. А вот чисто промптом получить готовый "шедэээвр" - это как спорт. Убрал кстати все негативы, в xl они только вносят еще хаоса. Чистый и неразбавленный запрос и точка.
>>551864 да чет либо я дурак, либо лыжи не едут втыкаю установить контролнет по ссылке https://github.com/Mikubill/sd-webui-controlnet у меня прогрессбар пробегает, но расширение не добавляется, применить и рестарт нажимал
>>551898 Откопал как раз про lcm в прошлых тредах. Сейчас с этим и экспериментирую. Очень впечатляет, скоро реально уже на телефоны моментальную генирацию запилят такими тэмпами.
Народ, может кто знает в чём дело. В общем, когда вставляю в промт свою лору, которая натренирована на моём лице, картинка получатся чуть более тусклой/блеклой что ли, не столь насыщенной, как без этой лоры. Даже если выставляю довольно низкий вес лоры. Знает ли кто как с этим бороться?
В Комфи добавили методы апскейла/доунскейла для Deep Shrink. Появляется два логических вопроса: Это все таки метод апскейла? Можно ли (даунскейлить) генерить картинки разрешением 512x512 на SDXL?
>>552236 В автоматике с первых дней есть. > Это все таки метод апскейла? Нет, у конволюшена нет разрешения, разрешение пикчи не поменяется от изменения размера промежуточных данных.
>>552236 Проверил. Это SDXL на разрешениях sd 1.5 с downscale_factor на 0.5.
Может будет полезно тем, кто не может генерить на стандартном разрешении SDXL.
4-ый пик был сначала сгенерен в SDXL на разрешении 416x608 потом апскейльнут 2x через ту же модель SDXL. (по скорости получается так же, как если бы генерить на sd 1.5).
>>552247 > по скорости получается так же, как если бы генерить на sd 1.5 И зачем? SDXL должен быть немного быстрее полторашки из-за меньшего количества слоёв. Нищуки могут в fp8 залезть, чтоб на 6 гигах генерить 1024х1024 на SDXL.
>>552320 >>551583 Ну ты хоть бы ридми почитал, шо бегать в тред за каждым пуком. Аноны как-то сами во всём этом разбирались. Вообще, комфи через жопу документирован, как большинство кастомных нод. https://github.com/Kosinkadink/ComfyUI-Advanced-ControlNet >Custom weights can also be applied to ControlNets and T2IAdapters to mimic the "My prompt is more important" functionality in AUTOMATIC1111's ControlNet extension. Т.е. там как-то надо весами играться, есть там нода для кастомных весов. Оригинальная реализация CN для автоматика https://github.com/Mikubill/sd-webui-controlnet гласит: >"Balanced": ControlNet on both sides of CFG scale, same as turning off "Guess Mode" in ControlNet 1.0 >"My prompt is more important": ControlNet on both sides of CFG scale, with progressively reduced SD U-Net injections (layer_weight=0.825*I, where 0<=I <13, and the 13 means ControlNet injected SD 13 times). In this way, you can make sure that your prompts are perfectly displayed in your generated images. >"ControlNet is more important": ControlNet only on the Conditional Side of CFG scale (the cond in A1111's batch-cond-uncond). This means the ControlNet will be X times stronger if your cfg-scale is X. For example, if your cfg-scale is 7, then ControlNet is 7 times stronger. Note that here the X times stronger is different from "Control Weights" since your weights are not modified. This "stronger" effect usually has less artifact and give ControlNet more room to guess what is missing from your prompts (and in the previous 1.0, it is called "Guess Mode").
>>552236 >Можно ли (даунскейлить) генерить картинки разрешением 512x512 на SDXL? Нет, тогда она будет кукожить и выдавать пережённое дерьмо. Хочешь 512х512 - используй 1.5
>>552609 Я думал все просто забили и никто не обходит бан особо, и гуглу нет смысла заморачиваться тогда каждый день. Можно тогда скрипт написать чтоб он переименовывал все файлы и референсы в скриптах автоматом Но мне влом таким страдать. Раз меняют детект ежедневно, значит есть группа людей кто находит что забанено? Где они?
Поделитесь знаниями по lcm. Какие настройки/модели используете? Я как дурак довольно долго генерил с негативом, который не работает.
Из своих наблюдений главное пока это то что при 1cfg скорость генерации почти в два раза быстрее чем при 2cfg, в плане итераций.
Для теста вот сделал: https://files.catbox.moe/atrwry.png Может кто подскажет где сидят люди кто xy плоты делают? А то на 0.5 итерации в секунду такое делать это пиздос.
>>552825 При cfg 1 негативы не учитываются вообще. От 1 до 2 вес негативов повышается от 0 до нормальных. На cfg больше 2 начинается пиздец. 1.5 - обычно нормально для большинства случаев. Шаги от погоды на Ганимеде зависят. Но обычно 4 маловато и могут быть артефакты, особенно если еще со шринком от кохи пальцы распидорашивает. 6 - вроде норм для сдхл, но на 1.5 бэкграунд может уебать в монотон.
Шёл 11 день ебли с контролнетом, а результат всё так же говно. Как же я устал. Помогите, сгенерируйте хорошо и дайте воркфлоу.
1girl, 22 years old woman, woman holds on to a striptease pole, white fashionable dress with open legs and deep neckline, white sneakers, nightclub, golden confetti
>>552825 >Поделитесь знаниями по lcm. Какие настройки/модели используете? От 0.3 до единицы веса лоры, от 8/6 до 12/7 шагов, 1.5-4.5 кфг, модели любые но в основном аниме
>А то на 0.5 итерации в секунду Моё лицо если бы я был тяночкой пикрелейтед, когда кто-то жалуется на свои ужасно медленные итерации в секунду.
>>552899 >2 Я конечно дико извиняюсь, но нахуя второй раз проходить сэмплером DPM++ 3M SDE на 7 шагов? Просто для улучшения качества? Там же даже апскейла нет.
>>552872 У тебя с чем проблема, что позы не консистентны, или что качество говно? Со вторым не помогу, а вот первое возможно связано с плохим подбором кейвордов, вот нашел у себя какую-то "Типа реалистичную" модель, с твоими кейвордами разнобой выходил, после переработки начало похожее выдавать.
1girl, young, suspended on (metal pole:1.1), white fashionable dress, cleavage white sneakers, pole dance, hanging, perfect face, beautiful face, nightclub background, golden confetti effect
Поясните за батчинг в ComfyUI (ну или вообще в SD).
Вот я ставлю batch_size 1 и генерю, допустим 10 с/итерацию. Затем я ставлю batch_size 2 и получаю 18 c/итерацию. Затем я ставлю batch_size 3 и получаю 23 с/итерацию. Ну и так далее.
Т.е суть в том, что я почему-то выигрываю в скорости на изображение, когда батчу генерации.
Теперь вопросы: 1. Почему я выигрываю в скорости? Там какое распараллеливание на видюхе идет? Или мне просто кажется, мб я в этот момент не нагружал комп. 2. При vae-decode все изображения тоже как будто бы декодятся разом, из-за чего скорость тоже повышается. Но тут я не уверен. 3. Каким образом по одному сиду (а сид одинаковый у забатченных изображений, я проверил) получаются разные картинки? Тут lcm-сэмплер, вроде он детерминированный или как там такие называют.
>>552973 >Почему я выигрываю в скорости? Там какое распараллеливание на видюхе идет? Объём памяти на видюхах подобран строго в соответствии с кол-вом юнитов на чипе и пропускной способностью. Нельзя видюхе просто добавить VRAM, не добавив всего остального. Точнее можно, но смысла нет, примерно как в GTX 970 когда-то давно было 4ГБ памяти, но половина их них была супер-медленной и смысла не имела (мем про 3.5ГБ).
Поэтому, не загружаешь всю память = не юзаешь все юниты = не получаешь полную скорость.
>Каким образом по одному сиду (а сид одинаковый у забатченных изображений, я проверил) получаются разные картинки? Вся нужная рандомность извлекается при семплировании из одного сида. Т.е. чтобы воспроизвести то же самое, тебе надо адресовать это не как отдельные сиды для каждого изображения, а как "сид 123456, номер картинки в батче 4 из 8".
>Поэтому, не загружаешь всю память = не юзаешь все юниты = не получаешь полную скорость. Т.е. получается, даже на 1050 можно зафигачить батчинг хоть на 8 картинок, пока память это позволяет?
На пике память видюхи с батчингом 2. Получается, я где-то 5 поставить, пока не просяду, так?
>>552990 >Т.е. получается, даже на 1050 можно зафигачить батчинг хоть на 8 картинок, пока память это позволяет? Да. Но ты рискуешь выпасть за рамки, например в последних дровах нвидия вместо ООМ начинается юзаться подкачка из системной рам (если я правильно понимаю их изменения), а это медленно. Кроме того, при недостатке VRAM бэкэнд может сам такой прикол выдать, тасуя туда-сюда куски модели. В общем тестить надо, в каждом конкретном случае.
Маски для контроля сцены не работают ни в Latent Couple, ни в Regional Prompter. Они будто игнорируются. В чём может быть проблема? У вас как с этим обстоит?
>>547173 (OP) Какие нужно поставить параметры в комфи чтобы CFG scale как в А1111 работал? Если мне нужно скопировать промпт сгенерированный в А1111 (и CFG scale к примеру 5.5), то какие значения мне нужно выставить?
Не LCM хуита, на аниме. Но чем ближе к реализму тем лучше. 3х скорость не стоит 100% плохих картинок. Скорее всего надо просто ждать отдельную lcm лору/модель для аниме.
SD ГИГАЧАДЫ, ПОМОГИТЕ! Как в при вставлении объекта в инпейтинге убрать мыло вокруг этого объекта? Вот на этой пикче я вставил в картинку собаку, а вокруг неё образовался блюр/мыло, из-за чего видно, что этой собаки там раньше не было. Как вставлять объекты без такого?
Ребят, пока в SD я совсем вафля, как сгенерить задний фон под такого перса? Получается только около такого, но стиль вообще не идёт. Пытался использовать промты типа "2D indie game style, very simple style". Использую модель ReV Animated, может есть что-то более подходящее?
>>553280 Ну такое. t2i adapter сам по себе годный, но keypose в частности не имеет суставов-точек, поэтому прямые конечности сливаются в одну линию, и он может даже на одном персе поместить локти или колени в разные места. И сами модели не очень иногда - я пробовал крутить ящерицу с сигарой через t2ia openpose и она её постоянно мутировала в мужика, а cn openpose ничего такого не делал. В общем если прокатит, то t2ia, но часто приходится врубать контролнеты.
https://blog.comfyui.ca/comfyui/update/2023/11/24/Update.html >ComfyUI now supports the new Stable Video Diffusion image to video model. With ComfyUI you can generate 1024x576 videos of 25 frames long on a GTX 1080 with 8GB vram. I can confirm that it also works on my AMD 6800XT with ROCm on Linux.
>>553320 >Ты делаешь ровно наоборот, повышай его. Ну или подключи еще controlnet инпейнт.
Анон... я пробовал так... Можешь показать на своём примере? Типа взять эту пикчу и самому вставить собаку или ещё чё-нить на траву. Я уже не верю, что можно это сделать нормально
решил попробовать Comfyui, установил, тыкаю по вкладке - у меня белое окно, обновил, захожу опять - не помогло. Автоматик портабл (вроде, ставил по ссылке из видео Христа) В консоли ошибок нет вроде, я не погромист ниразу. В чем может быть проблема? Может порт какой нужно прописать в настройках Comfy ?
>>555110 нет ничего не указывал, в гайдах по установке объясняют хуяк хуяк и работает все без указания портов, только кнопку инсталл тыкай. А если такая херня как у меня, то просто обнови страницу говорят и заработает, а нихуя не работает и в консоли нет ошибок.