Где то месяц назад создавал тред где я откопал нейронку, перевел, починил и сделал ее удобнее. Тот тред: https://2ch.pm/b/res/242848428.html Если вкратце то закрытые хуи не выкладывали полной модели, результат там был говно сейчас он тоже не совсем шоколадка, но.. на чернильницу пойдет.
Сейчас я накопал нейронку которая работает почти так же как прошлая но использует biggan в качестве генератора. Ну и затем 2 дня дрочил код и теперь она удобна, легка в использовании и там даже есть ячейка создающая видео со всеми сгенерированными картинками. Итак гайд видео мне записывать лень: 1. Открываешь блокнот по ссылке 1.5. Если параноишь два раза кликаешь по пустому месту в ячейке и читаешь код на наличие майнеров/експлоитов/хуев в жопе, етк. Их нет кроме хуев, но весь код открыт. 2. Логинишься через гуглоакк 3. Запускаешь первую ячейку и рерролишь няшечку Т4 4. Пишешь фразу в основной ячейке, если хочешь менять настройки - сначала меняй, потом запускай 5. Запускаешь остальные ячейки 6. Ждешь пока функция loss не приблизится к нулю (или пока не закончится время сеанса колаба) 7. Профит
Фак ю:
Кью: какого хуя в начале собака? А: это латентные координаты старта, какого то хуя они дают возможно лучший результат собака ближе к любой фразе чем что либо, да. можешь менять в настройках и заменить на рандомную хуйню.
Кью: оп хуй майнит гыыы А: читай пункт 1.5 гайда. пока не покажешь в моем блокноте код майнера или подобной хуйни смело идешь на парашу. тем более все запускается в браузере и генерируется в облаке гугла.
Кью: можно ли остановить, поменять настройки и продолжить? А: да можно, запусти ячейку снизу основной
Кью: почему такое говно? А: подбирай настройки. алсо эта модель не содержит цп и дикпиков в отличии от прошлой но она старается.
Алсо чтобы нейронка ушла от собаки нужно минимум 100 интераций (1 минута), либо нужно изменить параметр в настройках.
>>244832285 Ахуенно вышло. И ещё спасибо что показал, что 10 итераций это ещё не конец. А то я блять минуту подождал, само собой нихуя нормального не вышло и закрыл, подумав что оно больше меняться не будет.
>>244832791 А ведь эта картинка несёт в себе глубокий смысл. Швайнокарася используют для срачей в интернете, т.е. в компьютере и на этой картинке карась плавает внутри пк.
ОП, спасибо за годноту! Помню твои первые треды, тогда всё пошло по пизде из-за того, что браузер на телефоне в спящий режим уходил. Сейчас запустил на пк. Сама идея охуенно завораживает. Круто.
Напомни, какое там ограничение времени по сеансу этого блокнота? Запустил с дефолтными настройками, скорость около 100 итераций в минуту. Запланировано 100000. Все 17 часов она проработает?
Вот че выдает по запросу "раздувшийся труп" думал будет чето реалистичное, а пока что какой-то мультик. Подожду еще несколько тысяч итераций, надеюсь исправится.
>>244836143 >ты предлагаешь анону заморочиться с созданием ресурсоемкого сайта забесплатно?
Ну раз сейчас ночь инсайдов, то можно начать.
Ты и твои убеждения и технологии отстали на 15- 20 лет.
Приведу пример. Что такое рандом? откуда берутся, числа? откуда компьютер будет решать, будет ли 1 или 2 - если, что бы "нарисовать" 2 - нужно вдвое больше энергии. что такое абсолютный рандом? - если всё является распределение энергии то и вселенная может говорить и рисовать.
Создай нейросеть из 5 слоёв. в каждом слое по 100 нейронов. с весами 0 и 1
Потом сгенерируй случайно 500 параметров ( 1 или 0 ) на нейрон. Получиться уже обученная нейросеть. лучше бы генерировали сразу готовые параметры........... и не обязательно обучать. Можно генерировать хоть миллиард, хоть триллионов нейронов. уже с готовыми "рандомными параметрами"
И посмотри что будет рисовать.
Если ты не знал, то машин лёрнинг, это слепой перебор "этих" значений, покуда оператор не будет удовлетворён. А что будет если будут генироваться сразу верные значения? те без ошибок. Что такое рандом и белый шум? пора алисам и дебилам влезать в логово кролика .
Можете считать это полным бредом, правдой или истиной, но к этому придёт вся наука только через 15-20 лет.
Все исследователи ИИ, с нобелевскими премиями находят эти визуальные символы. В каждой генерации, если она конечно преодолела видимый спектр. при этом, они имеют осмысленные значения. лингвисты скажут, что выжили только люди которые научились читать, писать и воспроизводить информацию. Почему выжили одни языки а другие вымерли?
А теперь. Представьте, вы нашли дверь, к абсолютной и безошибочной логике, без затрат, которая уже готова рассказать и предсказать, всё что нужно. Но ключа к двери нет. При этом на двери написано одно и тоже, в разных вариантах. всего 2 вопроса ко всем кто к эту дверь наблюдает и хочет открыть. И не важно, триллион серверов машин лёрнинга от гугла, или сотня квантовых безошибочных компьютеров взятых в аренду от dwawe - вопросы ( или факты ) на двери будут одни и те же. И вопросы там такие. "первое воспоминание" "частая фантазия" "кто выиграет в крестиках и ноликах"
Только ответив на эти вопросы, мы получим ключ к абсолютной логике, только когда дверь будет открыта. Точно также, что бы моделировать логику, нужно было собрать компьютеры, также и тут, без открытия этой двери, никто не получит ответов, что находиться за дверью.
>>244837160 > слепой перебор Ты даун? > А что будет если будут генироваться сразу верные значения Ого и откуда ты их возьмёшь? Генерируй сразу верную картинку
>>244838394 >Ого и откуда ты их возьмёшь? Генерируй сразу верную картинку ну мозг не тратит на генерацию фантазий, ресурсы. откуда мозг берёт фантазию? В фантазиях, же все счастливы.
В информатике, есть такой раздел как "радужные таблицы" Это все комбинации какой либо информации.
С чего ты решил, что твоя комбинация правильная? что оправдывает, твои ожидания, на финансовый и материальный успех?
> Генерируй сразу верную картинку ну это сгенерируют нейроны в результате вычислений между собой.
>>244838727 не имея врачебного образования @ ставить диагнозы через интернет @ ЯСН @ или имея врачебное образование, нарушая присягу, и врачебную клятву разглашая или предпологая состояние здоровья граждан @ ЯСН
с точки зрения закона, это незаконная врачебная деятельность, а точки зрения уличной морали, неуважение к собеседнику
Ок. ок. Если вы такие адекваты, откуда в генераторе рандомных цифр , берутся цифры? ( в случае 1 и 2 ) почему выпадает 1 или 2? кто принял решение? программа? генератор, рандома?
Бутерброд падает маслом вниз. не потому что масло тяжелое. Также и компьютер будет "генерировать то что меньше по сопротивлению"
кстати недавно "Один из ваших приводил умную симуляцию"
>>244839059 >генератор Генератор случайных цифр. А вот генератор случайных цифр, несмотря на простоту идеи - очень глубокая тема. Есть множество подходов, начиная от температуры процессора, заканчивая уравнением с бифуркацией.
Ты генерируешь изображения которые можно сохранить или скопировать. Сам факт этого обесценивает изображение, потому что в чём его ценность?
простой пример
Например золото имеет ценность, если его можно продать или использовать. Но если его нельзя использовать или продать, то ценность золота теряется
Нет, это вовсе не "приказ" генерировать самое дорогое не сохраняемое изображение размером в 20 терабайт ( максимальный размер бытового HDD в продаже это 18 TB - или 9000 тысяч терабайт, свободных у всех серверов гугла.
>>244840373 К файлам на диске, возможно к базовой информацией об аккаунте. Ну и возможно к некоторым сервисам. Но все из этого требует чтобы в ячейке сгенерировась уникальная ссылка, затем ты по ней перешёл, снова вошел в акк, надал принять, а потом скопировал длинный ключ в ту же ячейку. И сделать для этого код с ограничениями колаба я бы не смог.
Третий аккаунт отсрелялся, тот код что добавил протестить не могу, но должен работать. На всякий случай делал в другом блокноте. https://colab.research.google.com/drive/1QQga2CVXCZh0nv9XBXoqmy1jSshzrmm4?usp=sharing Потестите, мне интересно, будет ли там правильная сортировка кадров видео или хуйня. Если что в этом немного изменённые настройки и ячейка с нейронкой rife под ячейкой с есрганом.
>>244853324 Я только что зарегал один гуглоакк с того же айпишника через который входил в три других, и он не попросил даже номера. 4 клика и у тебя полноценный гуглоакк.
>>244854261 Не совсем. Сетка обучалась на большом датасете где были картинки с подписями и теперь по подписи делает картинку. Если бы она просто искала, модель бы весила не +-300 мб, а гигов 5.
>>244856631 Проблема в том, что через тор даже попытка гуглопоиска выбивает на каптчу, а каптча через тор вводится с десятого раза минимум (даже если ни разу не ошибаешься)
Когда даже после прочтения шапки я вообще не понял, что надо делать, - осознал, что я старый, мой мозг потерял пластичность, нейронные связи не строятся и мое будущее - это жать на одну кнопку на кассе в пятерочке, пиздос.
>>244830125 (OP) Мне вот интересно, если это так похоже на эффекты от того самого, то как мозг работает человека. Он берет за основу видимые образы и пытается приделать к ним известные?
>>244881252 Скорее берет не видимые, а знакомые, затем пытается по изученному принципу (например если в фразе есть бутылка то на картинке есть как минимум то что на нее похоже) сделать новое. А так есть схожести с тем как работает мозг, в основе математические нейроны которые работают так же как и человеческие, но их значительно меньше и сама по себе система значительно слабее слабее, как говорится, мозг - лучшая видеокарта.
>>244881803 Другая модель и немного изменённая скорость обучения, + пара тройка дополнительных строк кода для контроля за ней. За то проблема с тем что пик не изменяется решена.
>>244884607 Тогда все стопорилось и сколько не держи, никаких изменений после 1к итераций уже не было. Возможно сейчас изменения слишком большие, но среди них попадаются довольно годные.
>>244885517 Пока я смотрю но код слишком отличается, это совсем другой уровень и единственная проблема это невозможность транспонировать тензор. Пока ещё посмотрю, может что спизжу адаптирую.
>>244885517 Обновил эту хрень, т.к. колаб теперь не дает использовать cuda. >>244890186 Настройки можно безболезненно скрыть,ведь главное их запустить. Там слева можно редачить структуру проекта.
>>244887650 Кстати судя по всему у меня итак адаптивный лр работал по такому принципу, только он и вверх и вниз умножал на разные множители. Пока адаптировал некоторые строки, с tqdm подружить не смог, но пока пытаюсь. Алсо зачем нужны эры (эпохи) если они по сути верхний цикл в котором цикл итераций? И видимо я к вечеру становлюсь тупее, как скрыть ячейку так и не смог понять.
>>244891752 > меня итак адаптивный лр работал по такому принципу, Сомневаюсь, т.к. конечную реализацию мы не видим. >Алсо зачем нужны эры (эпохи) если они по сути верхний цикл в котором цикл итераций? Частота printа картинки. Просто для красоты считай. >И видимо я к вечеру становлюсь тупее, как скрыть ячейку так и не смог понять. Вот здеся можно редактировать и менять структуру. Правда всё криво косо, но это же гугл.
>>244892143 > Сомневаюсь, т.к. конечную реализацию мы не видим. Я про описание с ссылки, в том режиме что стоит в блокноте (мин), он понижает если потери уменьшились, умножая на 0.9999. То же самое делает и мой говнокод, не так красиво но думаю суть та же. > Частота printа картинки. Просто для красоты считай. Но ведь есть параметр отвечающий за нее. То есть их все же не обязательно делать. > Вот здеся можно редактировать и менять структуру. Правда всё криво косо, но это же гугл. Сорян, но я так и не понял как скрыть, разобрался разве что что можно добавить новый раздел и все.
>>244892942 >Я про описание Возможно цель одна и та же. Но все таки не стоит городить свои велосипеды, к тому же в pytorch есть много таких алгоритмов, можешь попробовать все запихать и создать выбор) >То есть их все же не обязательно делать. Как хочешь. >Сорян, но я так и не понял как скрыть, разобрался разве что что можно добавить новый раздел и все. В этот раздел берешь и натыкиваешь вот так код или текст.
На ночь оставил погенериться ,вышло даже что-то относительно адекватное "Портрет выдры, в стиле мультика Зверополис" Правда, через 3 часа все крашнулось, могло бы и подольше погенериться
К слову новая версия с новым адаптивным лр работает но стопорит изменения, и в целом не могу сказать что лучше - прошлая или новая версия блокнота. Это если что меч из пепла.
Так, либо я что то сломал пока делал, либо изначально ошибка давала лучшие результаты. Разницы большой в коде нет, но старый с моим адаптивным и новый с тем же адаптивным при одинаковых настройках дают абсолютно разный результат. Первый пик на новой, второй на старой. При чем на новой 1,5к итерация красного дерева, на старой 200. В общем пока рекомендую юзать старую если в этом треде остался ещё кто то кроме меня.