Ребятки, а кто-то ощущал на себе давление со стороны нейросетей на область мотивации? Типа зачем трудиться если можно сделать нечто в два клика?
Справедливо можно заметить, что у нейро еще слабоват контроль за результатом и цензура в дефолт моделях не дает развернуться любителям 34х правил. Не будем говорить, что все тренироуется лорами, тут вопрос в принципально другой. Если вы отбросите предрассудки, упретесь рогом, разберетесь со всеми трудностями нейро и сделаете себе систему, которая будет подходить под ваши нужды и делать лучше и быстрее то что сейчас делаете вы - где вы будете искать мотивацию делать то, что делаете сейчас? И сможете ли вернуться обратно? это же как с даза в позер 1.0 пересесть. Потому что я в позере глобальное освещение "руками имитировал", а в этом вашем даже просто hdri карту вешать - неинтересно.
Или даже давайте усложним вопрос, немного с другой строны посмотрим.
Для тех, кто скжает - я вот не хочу хрен знает что генерить, люблю чтоб было мое, мой стиль. А что если нейро будет ОБУЧЕНО ВАМИ, на вашем пк, на ВАШЕМ стиле. Это же не чит.
Вы же не лепите каждый раз фигуру с нуля. И даже морфы каждый раз не лепите. Вы один раз их сделали и ПЕРЕИСПОЛЬЗУЕТЕ, и совесть вас не гложет, и вы не считаете что мало вложили в работу. Потому что знаете, что взяли свое. Ну по идее нейро - в этом случае - это тоже самое, следущий шаг.
Я понимаю, что нельзя просто из воздуха получить картинку и одновременно удовлетворение от ее создания, так уж устроен человек. Нужно приложить некое усилие. Но в каком месте вы считаете что оно должно быть приложено? И повторю этот момент - если ваша текущая работа полностью содержит морфы и пропсы которые вы создали ранее - и вы в сегодняшей новой работе не сделали НИЧЕГО НОВОГО - вы же все равно радуетесь хорошему рендеру? Радуестесь новой позе? Новому расположению ламп освещения? Чему вы радуетесь? Что мешает радоваться сгенеренной картинкой от ВАШЕЙ нейронки?


Друг последовал вашему желанию и прогнал ваш текс через Алису бля чуть не обоссался от смеха не у вас есть мысли разумные не спорю пеоеслушал несколько ра смех вызвала скорее алиса аваш текст осень даже грусный
OK
Есть элемент некторой тревоги. Мне кажется главная опасность нейронок, о которой почти не говорят - то, что они посягают на хобби. Многие дазисты пересели на даз с позера. Были люди которые с SFM пересели на блендер. Не просто же так эти вещи случились, верно? В один момент поднялась планка рендера и SFM стал казаться устаревшим не только зрителям но и самим авторам. Стало просто не интересно работать в таком софте. Но, была возможность спрыгнуть и пойти дальше. А куда вы спрыгните с начинающего так же деревенять и устаревать даза? Что будете делать когда ваш арт покажется вам хуже почти всего что делают нейронщики?
по настоящему поразмышлять о будущем заставляет деятельность Boston Dynamics и подобных, а состряпанная губошлёпцами нейро-чесотка беспокоит наверное только очень впечатлительных персон.
Кто людям помогает, тот тратит время зря
Никакого давления. Как раз наоборот. Создание датасета в дазе для нейронок позволяет поднять производительность именно нейронок на порядок. А нейронка без модели- пустое место.
Вы приглядитесь на всех этих виртуальных инстаграмщиц и прочих порномоделей - они все на одно лицо. Ето потому что пройти нейрофотосессию с настоящей моделью нереально дорого и технически сложно. А с помощью даза как два пальца об асфальт. Тоже и с локациями. За 3 года народ уже обожрался всех этих трампов с бабками. А новые нейронки, которые растут как грибы после дождя тренируются на одних и тех же данных. Вы прочтите хоть один учебник по нейронкам. Там прямо даются ссылки на один и тот же набор, которому в обед 100 лет. А нового ничего нет и не будет - дорого и хлопотно. А вот тут вы со своим дазом и сформируете предложение.
Кстати для справки: Создание приличного датасета для лоры стоит лям и более деревянных. Смотрите ютуб там есть видео реальных кейсов.
alt-lab.org/LAB/
Да я жду - не дождусь, када давление со стороны нейронок станет просто невыносимым.
И это не шутка.
И когда нужный результат в нейронке будет сделать быстрее и проще, чем в 3D-софте - сменю рабочий инструмент с 3D на нейронку.
Сейчас у нейронок плохой контроль. Да и неудобный к тому же.
Что-то она делает виртуозно и быстро, а в других местах косячит так, что туши свет.
Я уже писал ранее своё ИМХО, насчет будущего 3D и нейронок, повторю как я это вижу:
Ожидаю, что будет гибридный софт.
Либо нейронка (например от Anthropic или OpenAI) со встроенным 3D-редактором.
Либо в 3D-редакторы (например Blender или Cinema4D) встроят нейронку.
Либо вообще с нуля появится принципиально новый софт.
Что этот софт будет уметь ?
- с нуля создать 3D модель по текстовому промту и по образцам (картинки, видео, фото)
созданную модель можно будет допилить/докрутить морфами вручную по желанию
- вставить риг в модель
- сгенерить для неё варианты текстур. Опять можно по промту или картинкам/видео
- сгенерить по промтам и картинкам варианты одежды, которую можно было бы одеть на перса
- сгенерить варианты поз для персонажа. Включая позы, в которых например два персонажа взаимодействуют между собой
- сгенерить сцену или элементы сцены, пропсы по промту, картинкам, видео, референсам
- сгенерить варианты освещения с возможностью последующей ручной настройки
- обучаться на ваших дата-сетах, чтобы генерить именно те 3D-объекты, которые вы хотите
- всё, что сгенерит нейросетевая часть 3D-редактора можно будет править, дорабатывать стандартными инструментами 3D моделирования
И всё это будет удобно и интуитивно понятно.
Ручная работа по финальной настройке сцены и её элементов никуда не денется,
но не нужно будет с нуля скульптить людей и чудовищ, моделить одёжу и прочие пропсы.
То есть желающие, конечно, могут скульптить с нуля по старинке, но это будет как 19-20 век, в котором одновременно уживались традиционная живопись и современная фотография.
Вот так я вижу будущее нейронок и 3D-софта
p.s.
Ясен пень - никуда не денутся нейронки, которые будут просто генерить по промту без возможности последующей 3D доработки. И наверное они тоже будут хороши.
Ну это уже будущее покажет, чья возьмёт
Так всё это уже есть. Генератор 3д есть в китайском хуньяне. Пришпандорить риг и позы можно практически в любом UI в любую нейронку с которой он работает. Контролнет позволяет всё, что вы описали. По референсам. Промпт не нужен. Стили и текстуры тоже есть везде. Освещение тем паче. Дорисовать в стиле аля фотошоп можно чуть более чем во всех нейронках. Заставить двигаться, петь, плясать - пожалуйста. Только плати бабки в онлайн гнераторы или покупай карту на 24 гига.
Осталось только прямые руки и мозги приложить. Но этого ни за какие тугрики в аптеке не купишь.
alt-lab.org/LAB/
Как думаете много трушных художников переключились на фотографии, когда они появились? Я думаю не один. Вот и тут тоже самое, то что нейросети делают быстрее, проще и даже лучше не значит что они заменят творчество. У меня вот не возникает желания перейти на нейронки, после того как мне нейронка сделала пару красивых артов. Все ваши мысли, ка мне думается, от незнания и не умения, вы не можете сделать красиво в дазе, поэтому ищите более простые способы удовлетворить свое эго
Мне вот как видится идеальное будущее нейронок в 3д. Нейросеть просто научат нажимать на кнопки. И она сможет не генерить, а именно что создавать модели ка реальный человек, только быстрее и без ошибок. Задал ей параметры модели или показал картинку как надо и она взяла сама потыкалась в синеме и сделала тебе идеальную модельку с идеальной топологией, разверсткой и даже текстуры потом "нарисовала" сама. Уже сейчас нейросети могут подсказать все этапы по созданию модели, где какая кнопка расположена и прочее, их нужно просто научить управлять курсором и тыкать кнопки на пк. Мне думается это очевидно, но почему-то идут по пути генерации со странными результатами на выходе
И хотя нам прошлого немного жаль, ХУДЬШЕЕ конечно впереди
daznoob-у. Вряд ли адекватных людей это вообще как-то "парит".
Скажем упоминаемого вами в одной из тем Финча вряд ли "парит",что он оцифровывает свои пикчи, используя стилус и планшет, а не палку и песок.
ddos_it
Перефразирую.
Поразмышлять о будущем заставляет деятельность, состряпанная наспех губошлёпцами. Такая, что даже у неискушенного в тонкостях обывателя травмируется восприятие конечных поделок.
Отсебятина.
На видеохостингах граждане страны с пропагандируемой уникальностью и высокой нравственностью при дичайших демографических цифрах будут смотреть видосики про небывалые где-то там технолоджи, cgi новинки, прохождения игр.. Что в принципе было предсказуемо
Tonga
Вот хотел бы я такой подход иметь. Нейронки, фотошопы, дазы - это по идее всего лишь инстурмент для донесенения идеи или фантазии своей. Выбираешь наиболее удобный и действуешь. И многие профи так же думают. Но это как будто какая-то неравноценная замена. Это как устроится художником, а тебя отправят на покраску забора со следующими аргументами: вот краска, вот поверхность. Ты же любишь кисточкой вазюкать, тут даже все проще, чем ты привык.
не знаю, понадобится ли 3д по факту. Помните, сначала казалось, что мы без 3д и контролнетов не сможем на руке 5 пальцев получить. А по факту - нужно лишь увеличить мощь нейронки и эти "детские болезни" рассосуться сами. Чистая мощь даже без изменения архитектуры побеждает все. Да, в нейро не будет математически точно никогда свет посчтинан или анатомия построена. Но так точно и не надо. Надо настолько точно, чтобы человек не видел ошибки. А это вполне выполнимая задача. Человек вобще хреново просчитывает свет в голове (надо, чтоб только важные паттерны были соблюдены) - поэтому и и нейрослоп кажется татким реалистичным.
Даже если говорить не о мотивации а о разрушении творчества с другой строны. Вот сейчас как я понял нейро уже настолько сильны что прямо запрещают на руле излишний реалзм. Все бросились в "пиксар" или около того стилистику. Егор, сколько ты жил тихо и мирно, никого не трогая? А сейчас все ломанулись в твою тихую гавань. Ты чувствуешь начало пиздеца? Не ну ты можешь продолжать делать что делаешь, но думаю отдача будет все меньше. Выпустят может контрол нет на двух персонажей - чтобы делать не просто одиночные танцульки - а, гхм,.. "парные" и считай все - приехали. Да уже сейчас много можно чего сделать по video-to-video. Кстати вот сегодня буду пробовать. Сделал драфтовую анимацию в дазе - ни текстуры не натягивал, просто во вьюпорте расположил персов так как на фото и записал прям с вьюпорта видос. И посмотрю удасться ли сделать анимацию на фото по этому видосу. не дай бог получится - я ж залипну в этом дерьме.
чудику померещился НЛО и он судорожно убеждает всех что они тоже их видели, шизики сбиваются в кучу и начинают видеть ещё больше летающих тарелок, шиза прогрессирует, их начинают похищать зелёные человечки и сообщать закодированные знания
Кто людям помогает, тот тратит время зря
А зачем им переключаться ?
Никто ж насильно не заставляет, слава Богу.
У меня одна знакомая пару лет назад увлеклась рисованием красками и кисточкой.
Не то, чтобы она прям круто рисует. Она обычный человек, без задатков Пикассо.
Но это её хобби и ей нравится.
Так вот нащот фотографов.
Референсы для своих рисунков она часто берет с фотографий одного знакомого и очень крутого фотографа.
Вот такой симбиоз.
Так то места в цифровом мире всем хватит.
И олд-спайсам, любящим в Зебраше из шарика заскульптить полноценного перса
и гикам с пылающим взором, которые пробуют на вкус всё самое новое и передовое, даже если оно ещё толком напильником не обработано.
У олдов не в почете шарики, даже если они мерещатся таковыми..
поэтому они предпочитают софт с некрасивым древним, но функциональным меню с вменяемыми названиями операций, а не выдумками.
Хихикать над дедушкой Max-ом и другим почтенным софтом можно долго.Только переход между ними менее болезезнен, чем между версиями одного ежедневно обновляемого софта.
Вчера поинтересовался. Ё моё. Какие новые крутые фичи появились в Blender!
Точечки теперь можно на сплайнах сразу настраивать. Да еще заглушечки он ставить научился.Ну надо же.. . Нейронку вставят и самое то будет.
А c массивами ну просто вообще шикардос.И по радиусу,и по пути.Зверь-программа
doznickname
Таких как Финч, нейронки должны лишь вдохвновлять. Еще бы. Нейронки, покорвишие фоторил, все еще не способны сделать разворот комикса в стиле марвел, который ты легко делаешь руками. А насчет именно мотивации - он так долго работает в своем деле (десятки лет) - что мотивация рисовать прерватилась в нечто иное.
я немного еще хочу мысль изначаьную повертеть, чтоб ее лучше понять самому. Смотрите вот к примеру человек любит делать ковры. Вручную. Я уж не знаю как их делают - предположим плетут. Но человек не может любить только плести. Ему нравится резульат работы. И вот живет он, представим, в древние времена и бац - изобертают ковровый ткацкий станок. И на завтра через дорогу открывается магазин с сотней ковров. А он шьет один полгода.
Даже если отбросить то что у человека остается доход - допустим у него так же есть клиенты которые любят ручную работу. Само по себе осознание того что ты был раньше ковровых дел мастер, а сейчас всего лишь странный тип - вручную деалющий полгода, что делается за пять минут. Ну типа гик ковровый. Я говорю что для человека может все измениться. Он будет делать то же самое все, у него будут те же клиенты. Но магазин напротив будет показывать, насколько легко имитировать его труды. Его респект к самому себе будет меньше. Возмжоно еще что-то...
Короче я точно не могу выскзаать мысль. Но само по себе появление вокруг все более качественного арта влияет на вас - хотите ли вы или нет. Убеждаете ли себя что они вот читеры а я вот настоящий художник.
Ну, а нафига тяпкой в корыте месить раствор, если можно засыпать всë в бетономешалку и она всë сделает за тебя быстрее. Нейросеть, вскоре более продвинутый инструмент для штамповки медиа контента, чем любая 3D прога. Это техническая сторона.
Что с творчеством? Оно начинается с идеи. Что автор хочет донести, сказать потребителю. Если идей нет или результат замысла сводится к копированию других идей, то это Технический-творческий процесс. И результат соответствующий. Хоть в Дазе неделю, хоть в нейронке за минуту, на выходе однотипно, уже было, только с другого ракурса.
Придумал что-то новое, интересное, хоть в паинте нарисуй, народ подтянется. На это способен только тот самый настоящий художник. И самое прикольное, что вот такая пикча нарисованная в паинте, вскоре так же станет однотипной. Ибо все начнут повторять и оригинал уже никто не вспомнит.
Там если не понятно, что я хотел донести под Технический-творческий, раскрою тему, если всем не похер как всегда.
Master
Не, номально, двигай тему.
Я люблю осмысленное творчество, сюжетные всякие работы. Но когда начинаю делать чето сам - получается стоячий или сидячий безсмысленный перс.
У меня есть своего рода странная мотивация рисовать, к примеру. Это звучит страннно, но мне нравится думать по поверхностях, об их отностельном наклоне, о тоне и цвете. И так как точных ответов нет, рисунок приевращается некую рулетку. Где у тебя бескоечное число попыток. Кстати вовремя у меня в этом деле подоспел результат - всмысле начал минимально нравится. Иначе бы забросил это дело как и даз
в 3д кстати я не смог для себя найти таких зацепок, все было как-то долго настраиваемо, я уставал уже на этпе позинга фигур а к началу рендера уже думал что идя не стоила того чтоб ее рендерить).
Ситуация сейчас у меня с нейронками та же что с 3д. Я ими занимаюсь, но не вижу ничего чтобы мне в них нравлось) Это просто тупая машина которая может то, что я не могу. Возмжно какой то чел нейронщик думает по другому. Типа вот нейросеть это мое продолжение - я отдаю приказ, а она как мой верный напарник выполняет - мы отличная команда. Ну или как то так.
Оно в 3D так и работает, пока сцену собрал, уже другой хочется заняться. Слишком много сложностей, даже если всë знаешь. Сетка примерно сделает, а вот как задумал, только сам.
С нейронкой, это вообще типа: захотел картину на стену, пошел к художнику, объяснил чего надо, дал на литр, через неделю забрал. Только вот за литр, оно и на стене такое. И даже если профи, даже в подарок захочет нарисовать хоть маслом, ты своё видение мира ему не передашь, и он через слова увидит по своему. А на холсте вообще третье. И даже так, только сам.
стихотворение (не помню, может уже постил):
Мы с приятелем в НИИ
Разработали ИИ
Как чего ни генерируй
Получаюца хуи
--
Нейронки - вещь.
Когда их нормально подружат с 3D-софтом - начнется настоящий реннессанс искусства.
Честно слово
Будет такое... такое...
Вы даже представить себе не можете, какое оно будет
Tonga
Не думаю, что 3д в своем чистом виде нужно. Нейросеть некторые вещи делает настолько лучше что человеческое вмешательство только ухудшит дело. Это знаете, как в дазе когда анимируешь плавной кривой а потом пытаешься ее править дополнительными точками - и все портится, потому что появляется эти мелкие паразитные движения, которые сразу бросаются в глаза. Скорее, нейросетям нужно больше мягких, лишь направляющих элементов. Вот как в одной из нейросеток видео я видел - вы управляете точкой. А персонаж сгенерированный следит за ней взглядом. Удобно? да. Теперь представте что вы контролируете взгляд покадрово путем поворота глазных яблок на нейромодели. Херня получится в итоге. Должны быть какие то функции привязки, внимания (attention какой-нибудь). Чтоб персы чтоб взяли друг друга за руку, можно было не промт писать а, просто на фото поставить две точки на их руках и нейро поймет что эти конечности должны соедениться. Или например поставить точку другого цвета и нейро поймет что руки должны кратко коснуться... Ввести так скзаать, в дополение к словесному, некую визуальную подсказку, и пожалуй, больше ничего не надо. Если нейронка держит форму образцов предметов и персонажей, которые ты ей дал (что уже успешно делают сетки вроде Клинга) - то вобще проблем нет.
Короче может оказаться что 3д для нейронок это как раньше мыслили про будующее авиации. мол, будут воздушные шары с огромным мотором или даже несколькими, которые его будут толкать по небу быстро. на самом деле появлись самолеты которые вобще не похожи на шары, и самые быстыре из них - вобще без мотора.
Звучит многообещающе, только искусство ли это будет. Вот если робот пылесос на полу кошачью какашку размазал это уже считается искусством? Не ну а чего, он может хочет стать новым словом в начале этого самого ренессанса. Чет я слабо верю, что ии глобально изменит искусство, искусство все таки это удел людей, а не машин. ИИ ведь создается не для того чтобы картиночки рисовать, он нужен думать глобальные думы, типа как расщепить атом и получить чистую энергию
И хотя нам прошлого немного жаль, ХУДЬШЕЕ конечно впереди
Егорыч так ты че робота пылесоса ставишь в невыгодные условия. А если ты наступишь и размажешь? это будет искусство только потому что ты - человек?
Многие тут наверняка погенеривают уже в ИИ.
Стоит ли создать категорию на форуме специально под ИИ-пикчи и обсуждения ИИшек
Пишите свои мнения.
Артемий
Все теряет смысл в ИИ арте. И критика - (это не мой косяк-это нейронка тупая), и похвалы (это же не ты так круто сделал, а нейро).
И самом бодании в ИИ арте неравенство - не все могут вкорячить себе к примеру LTX-2 или Flux-2. У кого круче комп - тот и победил.
Ну это так - замечания.
Я бы вобще советовал тому кто еще ставил себе это дерьмо - не ставьте. Затягивает и вы будете жмякать кнопку как тот хомяк с электрдами в голове. Еще если вы азартный немного человек и - типа вот щас, щас получится точно видос с нужной анимацей. Я уже месяц жмякаяю на кнопку, скоро вентилятор отлетит от видяхи. А мог бы рисовать к примеру. Рисование полезней - отодвигает болезнь альцгеймера). А жмяканье кнопки - нет. Но блин уже не могу отказаться - надо вдоволь наиграться. Видимо от даза место освободилось и заполнилось ИИ-шкой. Не лучшая замена так-то.
Мне думается да, чего бы и нет. На оф магазине ДАЗа вон есть отдельные закладки с ИИ элементами и полностью ИИ. На рендерхабе тоже есть закладка под ИИ в галерее, а чем мы хуже
И хотя нам прошлого немного жаль, ХУДЬШЕЕ конечно впереди
Тоже считаю, что надо отдельную категорию.
как говарят порномейкеры, зачем свои нетленки за бесплатно показывать если их можно продать подпищикам в твитире, тогда какого качества будет контент в разделе ИИ, и какова его польза
Кто людям помогает, тот тратит время зря
Кстате - это очень меткое замечание.
У мну тож был период, когда открыл для себя генерацию артов в ИИ и началось...
Написал промт --> жмешь "Generate"
Поправил промт --> жмешь "Generate"
Поправил промт --> жмешь "Generate"
и так до бесконечности
Это ж тот самый дешевый дофамин для нервной системы.
Как бессмысленный скроллинг Тик-Токов и прочих шортсов в Ютубе или рилсов в Инсте.
И хотя это похоже на процессв 3D-редакторе, когда немного поправил поверхность в 3D-редакторе - нажал "Render", опять поправил настройки поверхности/света, опять нажал "Render",
но всё-таки это не одно и то же.
В 3D (особенно когда понимаешь, что делаешь), результат контролируем.
В ИИ контроля меньше, а прогонов больше. Сильно больше. Пока что.
Хотя допускаю, что, возможно у очень опытных Промт-инженеров нет такой проблемы - они знают как влияет на генерацию изменение каждого параметра/слайдера, какое значение выставить, чтоб за короткое время получить то, что нужно.
У тебя есть готовая фигура, минимальное количество ползунов для настройки,куча туторов на различных площадках и овердохрена времени, для настройки корректоров и скина.
На форуме и через двадцать лет,если доживёт, будут обсуждаться кривые коленки и SSS,сколько бы годных ссылок и толковых даже туторов не написали.
В любом деле,даже в хобби должны быть цель, теоретические знания и практика.
Сейчас зима. Если ты решишь бесцельно заняться таким хобби как горнолыжка с бухты-барахты и абы как,ну или летом устроить сплав,то
результат уже известен заранее- куча потраченных денег и времени впустую,поломанные конечности,потерянное зрение и прочие радости бесцельного времяпровождения.
Вначале цель.Потом стулья
И хотя нам прошлого немного жаль, ХУДЬШЕЕ конечно впереди
У вас как раз та жопа, про которую мы говорили : при увеличении шума модель скатывается на встроенную в неё рожу. И эта рожа одна на все нейронки. ))). А при уменьшении шума изменения минимальны.
Смех в том. что все нейронки тренируют на одних и тех же датасетах. А датасет то всего один. Вот поетому все нейронки без собственной модели - пустое ничто. Лезьте в ютуб, смотрите ютуб по созданию своих моделей, датасетов и тренировке нейронок. Могет быть для простого кожаного ублюдка, тема и кажется неподьёмной. Но у вас как 3дешника - 7 тузов в рукаве. Вам не надо нанимать фотомодель и бегать с ней и фотоаппаратом по всевозможным пленерам и локациям. Отрендерить 200-300 картинок разрешением 1024 можно и в дазе за вполне оязаемые сроки. А ежели 500 отрендерите, то сможете и приторговывать датасетом при случае. Тем более с вашим железом могете вообще миллионером стать. У нас и того нет. на 8 гиговке мучаемся по 15 -20 часов тренируем.
alt-lab.org/LAB/
лопдло
alt-lab.org/LAB/
Кстати нет ребята фишка в другом. Если ваш арт ведет себя так - типа на малых конфигах не меняется а потом бац - и скачок вобще в другое - это есть следствие слабости работы. Типоа нейронка не смогла построить мостик от вас до реальности.
У меня так у знакомого было. Рисовал он кривые потретики и просил меня закинуть в нейронку - глянуть че будет. на мелких значениях кфг она естественно крупные косяки править не могла - сглаживала штриховку только. Увеличиваешь кфг - бац и другое лицо) Он говорит фигня твои нейронки. Я говорю - ну как тебе скзаать... давай посмотрим. Беру с гугл картинок хороший такой портерт академический, закидываю на малом значении кфг - все, штрихи сглалжены - имеем офиегнную фоторил пикчу с теми же чертами лица. То есть это и есть пожалуй ОБЬЕКТИВНАЯ оценка кривизны и слабости вашего арта (если цель реализм и модель нейро - фотореалистичная)
А кто-нибудь пробовал использовать для улучшения и детализации не генераторы, а вот это ??? ---
https://rutube.ru/video/5ee7d8377aa8c31e099a78ece5b40b78/
egorkae способов то много и все разные, здесь надо тестировать и самый лучший вариант брать в работу. А ваша логика в целом правильная. Вот только если вы хотите реализм, то делайте на модели которая заточена на реализм.
Dreamshaper это универсальная модель, она умеет всего понемногу. Там были для sdxl хорошие модели на реализм, не помню правда как назывались (давно уже с sd не работаю), у них обычно в самой названии модели присутствуют слова realism или realistic.
Потом, да, вы правильно определили, denoising strength от 0 - 0.2 (примерно, надо тестить). Далее накидайте лор которые есть на реализм, и у лор уже веса повысьте до 0.6 - 1.0. Так как шум зажат в диапазоне от 0 до 0.2, лоры будут толкать свой реализм с большим весом в этот маленький диапазон.
Несколько раз прогоните и откалибруете веса лор и denoising strength. В этом способе прям вот РЕАЛЬНЫЙ реализм не получится из-за узкого диапазона но добиться хороших результатов вполне возможно.
Есть другие способы использовать модели EDIT. (типо бананы). Кидаете картинку, пишите просто,
- Сделай реализм, позу фон и освещение не меняй.
Есть способ собрать схему с контрол-нетом (но это надо ковыряться в комфи), где depth и outlines будут держать ваш референс, а промпт и лоры с моделью оказывать давление вталкивая в эти контуры реализм.
https://i.postimg.cc/qMnCghBM/Madam4.png
Потыкал немного первым способом, ну там логотипы уплывают (и текст любой бы поплыл). Но лого вернуть можно это решаемо, правда время немного похавает. Вот EDIT модели они сохранят логотип, но накинут своего реализма который уйдет дальше от вашего стиля.
https://postimg.cc/QVs6vLNv
Шурик, спасибо вам большое, я почему-то так и думал, что добавить реализм без отсебятины они не могут. У вас очень хорошо вышло, можно заморочится натренировать модель и прочее, я не шарю особо и морочится не хочу, мне вполне хватит и того как оно просто в 3д выглядит
И хотя нам прошлого немного жаль, ХУДЬШЕЕ конечно впереди
Шурик, вопрос к тебе, если знаешь, ты вижу уже опытный в нейронках. Че у нас сейчас есть для нежестого переноса анимации с обраца видео на картинку? Под нежестким я имею в виду чтоб нейросеть могла что-то брать за общий образец, то чтоб у нее был простор добавить немного, изменить. Я попробвал только fun control от WAN. ну сделал как говрил - драфтовую анимацию в дазе примерно с того угла что у меня на картинке было. И мне нейронка вместо того чтоб двигатьь нужной рукой выобще вырастила третью руку из подмышки) Ну правда я и сеть тествую использовал 5B, может в этом причина. Но мало того что конечность не та - она еще прям пренесла все. То есть люди были как статуи и только рука двигалась. Я знаю есть animate версия у WAN но боюсь это те же яйца, просто сбоку
А так если говорить по промтингу и анимации то я уже прощупал все и немного разочарован и можно скзаать наигрался. Очень мало можно сделать. Я сразу понял что мой инглишь среднего уровня тут не проканает. Потому что надо токо чувствовать значения синонимов. Я подключил к этому делу vision нейронку и мы вдвоем промты писали. Она конечно офиенно пишет - сам бы я так не справился. А толку только с этого ноль. ПОдробный промт - WAN тупит, начинает путаться. Ему же не только действие надо описать. Еще и физику. Он письку то не видел, не знает че там твердое че помягче. Приходится как дауну все расписывать. Но он все равно как даун понимает все, ты хоть гениально распиши все)
да че про физику говорить, он направление не понимает. ох уж это движение руки along object. И препендиркулярно начинает делать, и по кругу, то жмякать палцьами начинает тот самый обжект. Короче пипец. Думаю ну неужто слово ВДОЛЬ можно так широко трактовать. Начинаю добавлять уточнений в следующих предложениях. Начинают появляться дополинтельные руки, которые тоже чето лезут и делают невпопад.
Насколько понял, у вас есть анимация, условно вышла из 3D, но персонажи выполнены в простейших фигурах и без текстур (просто тупо болванки). И вы хотите заменить эти болванки персонажами из обычных изображений (jpeg, png и.д.). В общем подменить болванки референсными персонажами.
Есть Lynx. (Эту модель не тестировал, по ней ничего сказать не могу)
Есть Animate. (Эту модель взял для себя в работу, пока не появится лучшая альтернатива, ниже прикреплю пример).
Wan animate может:
1. Референсным персонажем заменить персонажа в видео.
Но оставит "родной" фон который был именно на видео.
2. На вашу статичную картинку на которой есть персонаж перекинуть анимацию из какого-либо видео. Но перекидывает он только анимацию движения персонажа, а фон останется тот который был на вашей статичной картинке с персонажем.
Ну вот взять болванку анимации из Даза условно и сделать ее в "приятный вид", не пробовал, но можно ради эксперимента попробовать и глянуть что из этого выйдет, мне в общем самому интересно. Так в основном я гонял персонажа с картинки на видео и с видео перекидывал (анимацию openpose) на картинку с персонажем оживляя его.
То что вы говорите, там "пятая рука, пятая нога". Вообще 5B модели для видео это мазохизм, ну то есть они настолько ущербны по своей сути просто потому что в них мало информации. Ну можно использовать 5-6B для генерации изображений и то это будут как правило дистиллированные модели, в прямом их назначении делать генерации картинок БЫСТРО и то это будет указано скорее всего в названии самой модели, типа шнель или лайт. Используя модель 5B для видео вы сразу гарантируете себе плохой результат.
Потом если вы там сразу пытались сцену с несколькими персонажами сделать, даже не могу представить может ли так обрабатывать Openpose без кучи ошибок. Когда есть один референсный персонаж, openpose видит его делает под него скелет и здесь вроде бы все по логике и по фэншую.
Когда два персонажа, он должен сделать два скелета и какой персонаж на какой скелет цеплять вот тут уже наверное начинаются сложности....
В общем для тестирования я бы начинал с одного персонажа, и если с одним бы более или менее разобрался, тогда бы подключил второго и посмотрел бы, как работает "пересадка персонажа".
По поводу языка, не думаю что Инглиш сейчас играет прям сильную роль, да, безусловно знание терминов и оборотов речи точнее передаются, так как модели изначально обучают на английском и китайском.
Предназначенные (для передачи языка) модели достаточно хорошо передают суть и смысл вашего промпта (запроса).
Лично я пишу все промпты на русском, потому что мне их самому быстрее менять, отыскивать нужные слова в промпте, редактировать, копипастить и корректировать — удобно именно на русском, т.к. это родной язык. Но некоторые слова или словосочетания которые укоренились или которые трудно передаются, я пишу на английском.
Поясню на самом простом примере:
Вот вы говорите
Да, справедливо, нейронка не знает что это и как выглядят гениталии разных полов. Потому что самые базовые (основные модели на которых мы генерим) не обучены, им не показывали письки при обучении, соответственно у моделей нет образа, нет связи и они не знают и не умеют их воспроизводить.
Для этого, комьюнити всего мира делают лоры. В общем, делаю я к примеру сцену какого-нибудь секаса, цепляю лору чтобы она сделала член мужику.
В промпте если я пишу на русском. "Мужик с огромным членом обнимает женщину".
Член - можно перевести как member, т.е. член парламента, член делегации. A member of...
И это не тот член который нам нужен, в нашем случае будет устоявшееся penis в основной своей массе, не какие нибудь dick хуик - жаргоны, а более обобщенное понятие.
Но модели в данное время уже не настолько глупы, чтобы правильно передать смысл и нужный перевод который зависит именно от контекста предложения. Так вот, если в случае с пенисом это прокатит и смысл будет передан правильно, то в других случаях может не прокатить и передать неправильный смысл потому что есть выражения в англ. и рус языках которые могут интерпретироваться по разному.
Поэтому пишу промпт на русском, но редкие слова и выражения оставляю на англ.
along object - это так размыто, это в понимании человека довольно размыто, вдоль от чего к чему, а вдоль это начинается откуда, сверху вниз или слева направо, тоже может быть вдоль. А если не в двухмерном пространстве а в трехмерное перенести, то вдоль может быть и по диагонали, если человек стоит на 45 и разгибает свою руку в локте, но тут вдоль это уже от точки опоры от тела человека, от плеча.
Это для нейронки очень сложно, она вычленит только основной смысл из вашего промпта (а не точность). Сопоставит его со своей информацией которая есть в модели (условно какие сэмплы она видела при обучении, но так не совсем правильно говорить, но все же) возьмет рандомным сидом один из этих семплов, начнет генерацию в латенте, в процессе преобразования из шума будет сверяться постоянно с промптом, за отведенное кол-во шагов в процессе может повернуть руку чуть влево, или в право.
В данное время нейронка путает лево и право, причем лево и право по отношению к чему (одно дело когда вы смотрите в монитор и по правую руку от вас правая сторона, другое дело когда вы смотрите на персонажа который изображен на этом мониторе и правая рука этого персонажа будет находится для вас слева).
Что ж вы хотите он along.
Если along присоединить в англ. к другому слову, типа come along, come along with me.... то это уже получается словосочетание, и приобретает уже немного другой смысл. Оно буквально уже не переводится, а указывает на призыв в каком-то направлении. Типа: Пойдем, пойдем со мной.
В общем для видео используйте модели хотя бы от 12-14 миллиардов параметров. Понятно что все упирается сейчас в железо и оно все дорожает и дорожает.
Попробуйте Wan2.2 Animate 14B, может она вам даст нужный результат или средний результат с которым можно работать.
Нейросеть работает вообще по другому, не так как в 3D (и пока к сожалению не с такой точностью с которой бы нам всем хотелось), pivot point, left, right, along...
В примере который тут:
https://dropmefiles.com/WP4nB
Слева оригинал, там подписано. Справа вымышленный персонаж со статичной картинки, который перенимает анимацию у оригинала. Статичную пикчу вымышленного персонажа также приложил в архив.
Шурик, благодарствую. Про сохрарнеие фона - это очень существенная и новая инфа для меня (и это почти ломает все задумки)
А насчет того, что "облагороженный" первый кадр даз анимации может быть анимирован самой же анимацей... Мне кажется тип Чоколатер (применый ник) на рул34 один как раз этим и занимается. Берет чужие анимации и обрабатывает. Наверно если выкручивать конфиг сильно можно и до фотореала дотянуть.
Ну тоже такое себе. считай за нейронку все делаешь, как раб, ей только отрендерить осталось)) Так то она должна работать за человека по задумке.
народ, кто юзал wan квантованные модели и полные. Насколько улучается именно компонент следования промту а не общая детализация. Большая модель остается такой же глуповатой - просто вы получаеете глупость уже в 4к? Я бы конечно мог качнуть еще более квантованную модель чем у меня и сравнить с той, что у меня. Но мало ли - может уже кто пробовал, решил спросить.
У меня просто ощущение что у нейро два компонента. Чисто рендер и управляемость. И управляемость толи растет медленно толи почти не растет. То есть как только мы достигаем момента когда анатомия не ломается - дальше что у нас получается? просто поры на коже добавляются, а модель продолжает плохо слушаться? Если так, тогда вобще как бы смысл в мощном пк? чисто чтоб картинка была 1080 вместо 720? Понятно что на мощном пк можно быстрее перебирвать варианты. Но никто же не будет на мощном пк исползовать чето квантованое. наоборот, логично загрузить мощный комп по самые помидоры огоромными моделями и опять те же 20 минут ждать)
Зачем генерить тупые вопросы,если это описано,и даже чуть ли не под каждой халявой присутствует объяснение всей линейки.
У вас это такой фетиш?
Шурик
А разве это не очевидно(исключение кт,обученные кривожопыми "мастерами" в смысле языка)
Возьми T5."Тспользуется Естественный язык". Если отбросить маркетинговые лозунги, то для кого он естественный? Там что, слова отменили и их вес в промпте? Ты правильно написал приведя в пример along.но там(в языке английском и использованном при обучении) есть много что понятное только сетке. Ну и конечно нейронка не нарисует того чего не знает
Без управляющих слоев. Положи тёлку на спину на массажном столе,свесь ей ноги от коленей вниз.И сразу всё станет ясно.Ее тренили для массажа спины,а не для чего-то там..
затем же что и писать на форум и чето спрашивать когда есть чат джипти, умник.
Пишут то маркетинговый булшит - я и спрашиваю о практике, об ощущениях.
После определенного момента визуальное качество перестает играь роль и важенее становятся другие факторы. К примеру если у тебя модель держит лицо 3 секунды всего. Че толку что у тебя может генерится 60 минутное видео? смекаешь?
ну вот... опять чушь генерите.
doznickname
Чувак ты не можешь сгенерить картинку женщины на спине на массажном кресле. Ты на очень низком левеле. Тебе надо спрашивать самому, а не советовать, и уж тем более писать про чушь.
Страницы