Thursday 28 December 2023

Утилита RDCMan.

Всем привет.

Одним из инструментов реально облегчающим работу ИТ-администратора в Windows является RDCMan (Remote Desktop Connection Manager).

Утилита RDCMan - удобный менеджер RDP соединений для системного администратора Windows, позволяющая управлять в одном окне большим количеством RDP подключений, создавать древовидные структуры с удаленными Windows серверами и рабочими станциями (с которыми вы постоянно работаете или управляете). В RDCMan вы можете использовать различные параметры RDP подключения для отдельных серверов и групп и сохранять учетные данные администратора (пользователя) для автоматической авторизации на RDP серверах, что избавляет от рутины и здорово экономит время.

Сегодня мне трудно представить как же я обходился без него ранее.

Последняя официально-доступная версия RDCMan 2.7 была выпущена в 2014 году и тех пор ее развитие остановилось. Кроме того, в этой версии был выявлена критическая уязвимость и Microsoft решила полностью удалить страницу загрузки RDCMan в 2020 году. Однако в июне 2021 года Марк Русинович заявил, что утилита RDCMan переходит в состав инструментов Sysinternals и продолжит развитие. Марк, спасибо тебе огромное! Новая версия Remote Desktop Connection Manager 2.81, в которой были исправлены уязвимости была выпущена в 24 июня 2021 года.

Утилита RDCman является бесплатной и доступна к загрузке на сайте Microsoft. Актуальная версия доступна по ссылке https://docs.microsoft.com/en-us/sysinternals/downloads/rdcman.

Последняя версия RDCMan 2.93 поставляется в виде portable приложения RDCMan.exe и не требует установки. Просто скачайте архив RDCMan.zip и распакуйте его в нужный каталог. Remote Desktop Connection Manager поддерживаются все современные версии Windows, вплоть до Windows 11 и Windows Server 2019. Поддерживаются также Windows XP и Windows Server 2003, но на этих ОС нужно предварительно установить клиент RDP версии 6 версии и выше.

Как ею пользоваться смотрите здесь.

Monday 25 December 2023

На контроле.

Всем привет.

Решил тряхнуть стариной, и написать вам почемучку, типа небольшого рерайта для концовки фильма "Контроль" 2023 года. Возможно лучше глянуть сам фильм, а возможно лучше прочесть мой вариант, потому как режиссерская концовка мне показалась слишком шаблонной. 

На Brick Lane автомобиль Tesla Model S Long Range белого цвета лежал на правом боку. Вокруг сновали полицейские, мигали фонарями машины скорой помощи, движение было перекрыто в обоих направлениях. Недолеко от машины сидела Глория, помощница министра внутренних дел, ее бил нервный озноб. Кто-то вовремя накрыл ее пледом... 

- Мэм, мы исследовали вашу инструкцию маршрута и выбрали наиболее безопасный способ Вас остановить. Надеюсь у нас получилось.

Из-за спины появилась сотрудница полиции и протянула ей телефон:

- Мэм, звонок от министра.

- Как Синди, она цела? - раздалось в телефоне. - Глория, я скоро буду,... тебя забрать, а теперь о тебе позаботится специалист... Не волнуйся, наверняка поймаем!

- Девид, я должна, я должна сказать, да-да она цела, в порядке,...

- Хорошо, делайте что надо..., да, милая? Да разрешаю,... на поражение. Глория, у меня дела, послушай,  на пару минут я отключусь не волнуйся мы его схватим..

- Он сказал что работал на тебя, и он из службы безопасности.

- Я понял, подумай сейчас о себе, с тобой всё в порядке? Я попросил тебя забрать, о тебе позаботиться лучший специалист...

- Нам надо поговорить о многом. Девид, я уже в машине скорой...

Глория услышала звуки выстрелов и разговор прервалвся, но буквально через пару минут телефон зазвонил снова:

Friday 22 December 2023

GIMP та Stable Diffusion.

Всім привіт.

Якщо популярний редактор GIMP дозволяє встановлювати плагіни створені  на Python то логічно що він буде підтримувати і плагіни до Stable Diffusion, наприклад через АРІ до Automatic1111. Тобто чим він гірше за Krita?))

Зображення, створені штучним інтелектом, значно еволюціонували за останні кілька років: компактна модель Stable Diffusion призначена для створення зображень за замовчуванням розміром щонайменше 512x512 пікселів, але ви завжди можете змінити ці налаштування за допомогою моделей SDXL. Stable Diffusion - чудовий вибір, якщо ви прагнете створювати ШІ-графіку з розширеною деталізацією та 3D-реалістичністю. 

Плагін який я пропоную вам сьогодні на GitHub називається gimp-stable-diffusion.py. Хоча плагін був протестований на GIMP 2.10, теоретично він повинен працювати в будь-якому випуску другого покоління, хоча він може бути несумісний з GIMP 2.99, який створений на Python 3. Там окрема історія з іншим плагіном OpenVINO від Intel(?) який створено виключно під GIMP 3, і який поки немає офіційного релізу. То ж повертаємся до нашої теми.

Щоб встановити плагін до графічного редактора GIMP, просто виконайте наступні кроки:

  1. Виберіть потрібний плагін, зазвичай через GitHub, він тут https://github.com/ArtBIT/stable-gimpfusion.
  2. Завантажте ZIP-файл, що містить відповідний код плагіна.
  3. Скопіюйте файл GIMP Stable Diffusion у свою ZIP-теку, відкрийте "GIMP" і перейдіть до "Редагування", "Налаштування" та "Розгорнути теку".
  4. Натисніть на плагін і відкрийте файл у "Диспетчері файлів", вставивши скопійований файл. Це або %APPDATA%\GIMP\2.10\plug-ins\ або C:\Users\{your_id}\AppData\Roaming\GIMP\2.10\plug-ins\
  5. Перезапустіть GIMP, і доступ до функцій Stable Diffusion з'явиться у випадаючому меню Gimpfusion у верхній частині форми. Пройдіть по меню Gimpfusion -> Config та встановіть backend API URL base: за замовченням http://127.0.0.1:7860/.
  6. Переконайтеся, що ви запускаєте веб-інтерфейс Automatic1111 в режимі API: ключ --api при запуску. Також з веб-інтерфейсу Automatic1111 спробуйте зайти на http://127.0.0.1:7860/docs і переконайтеся, що маршрути /sdapi/ присутні, щоб свідчить прот те що його АРІ працює.

Wednesday 20 December 2023

Krita та ComfyUI разом.

Привіт усім.

Всі у захваті від ШІ у дизайні, від його темпів розвитку та вторгнення до нашого сталого оточення. 

Я не проти, але як на мене то було добре щоб процес створення аматором або художником шедевру був зосереждений в одному інструменті, наприклад ComfyUI або Automatic1111, і не було потреби щось доробляти в Photoshop або Davinchi Resolve.  ComfyUI в цьому напрямку рухається швидше за А1111, але то все відносно.

Цікаво що і монстри візуального дизайну потягнулися до ШІ, наприклад Photoshop з його Generative Fill також не бажає щоб користувач відволікався на інший інтерфейс. Але він платний, тому мені більш до вподоби безкоштовний аналог Krita. Навіть не стільки важливо наскільки він може замінити мені Photoshop, як те що до нього існує плагін  до сервера ComfyUI.

https://github.com/Acly/krita-ai-diffusion

Він дозволяє створювати зображення у Krita з мінімальними зусиллями: вибераємо область, натискаємо кнопку, і отримуємо новий image, що відповідає вашому зображенню або промпту. Або розгорніть полотно і заповніть нові області згенерованим вмістом, який ідеально впишеться в нього. Текстові підказки не є обов'язковими, хоча і бажаними. 

Все що вам треба це скачати код плагіну, розгорнути, так активувати в настройках Krita. Сам Kritа перезавантажити щоб він підхопив плагін. 


Якщо ваш сервер ComfyUI вже запущено поруч, то Krita через плагін з'єднується з ним автоматично. Якщо ви не маєте окремого ComfyUI то плагін вам надає можливість його швидкої інсталяції.

Цей плагін має на меті забезпечити те ж саме, що й "Generative Fill" у Photoshop, і навіть більше. Налаштуйте силу, щоб покращити наявний вміст (img2img) або згенерувати зображення з нуля. Також є сенс налаштувати декілька профілей з різними моделями та семплерами.

Saturday 16 December 2023

Керуємо освітленням в Stable Diffusion.

Всім привіт.

Освітлення відіграє вирішальну роль у фотографії та має значний вплив на загальну якість і настрій зображення для глядача. За допомогою освітлення можна підкреслити об'єкт зйомки, створити глибину та об'єм, передати емоції та виділити важливі деталі.

То ж сьогодні ви дізнаєтесь про методи керування освітленням в Stable Diffusion:

  • lighting keywords
  • Regional prompting
  • ControlNet img2img.

Хоча ні, про Regional prompting я не буду розповідати бо вважаю його заважким для новачка. А от про lighting keywords та ControlNet в img2img трохи поговоримо. Повний текст посібника можете отримати тут.

Для створення зображень ми будемо використовувати графічний інтерфейс стабільної дифузії AUTOMATIC1111. Хоча ці два методи так само легко використати і в ComfyUI.

Використання ключових слів (lighting keywords).

Найпростіший спосіб - додати ключові слова освітлення до підказки (prompt).

Для ілюстрації ефекту я використаю наступну базову підказку і підказку з негативним значенням:

Positive: fashion photography, a woman in field of flowers

Negative: disfigured, ugly, bad, immature, cartoon, anime, 3d, painting, b&w, nsfw

Model: DreamShaper v6 (c249d7853b)

Width: 768

Height: 512

CFG scale: 7

Приклади зображень, згенерованих за допомогою базової підказки будуть добре освітлені і мають гарний вигляд, але освітлення нецікаве. Тому додамо дещо словами.

Volumetric lighting, як об'ємне освітлення - це чіткі світлові промені на зображенні. Воно використовується у фотографії для збільшення відчуття об'єму.



Rim lighting, як контурне освітлення додає освітлений контур об'єкту зйомки. Воно може зробити об'єкт темнішим. Ви можете комбінувати з іншими термінами освітлення, щоб висвітлити об'єкт.

Sunlight, це cонячне світло додає, звичайно, сонячне світло до зображення. Воно, як правило, створює природне тло.

Backlight, як заднє підсвічування розміщує джерело світла позаду об'єкта. Ви можете створити деякі стильні ефекти, додавши це ключове слово.

Відомо, що Stable Diffusion не може створювати темні зображення некеровано. Існує багато способів вирішити цю проблему, зокрема за допомогою моделей і LoRA. Але простіший спосіб - додати кілька ключових слів із тьмяним підсвічуванням. 

Dimly lit або Crepuscular rays як сутінкове проміння додає світлові промені, що пробиваються крізь хмари. Спробуйте, це може створити приголомшливі візуальні ефекти.

Зазвичай такий промпт і портретне співвідношення сторін відтворюють зображення в повний зріст, а додавання сутінкових променів зменшує масштаб. Я використовую сутінкові промені на обличчі, щоб трохи збільшити обличчя.

Sunday 10 December 2023

Стилизация в Automatic1111.

Привет всем.

Киса! Я давно хотел Вас спросить как художник художника: 
вы рисовать умеете?
"12 стульев"

Поговорим про стилизацию в А1111. Сейчас это востребованная тема в том плане что многие желают выполнить генерацию в стиле того или иного художника или направления в искусстве.

В А1111 на сегодня для этого существует три  возможности:

- используем промпт

- используем ControlNet

- используем различные extensions.

Ну что ж, самое простое это, на первый взгляд, промпт. Вы завершаете его типа "... art by style Josephine Wall" и получаете свой результат. Разумеется выбранная модель не всегда сможет понять как выполнить ваш промпт в заданном стиле конкретного художника, особенно если сам художник никогда подобного не писал. Также затруднительно будет модели реализовать ваш промпт где до "by style" вы укажите свои нюансы по стилю. Например cyberpunk by style Josephine Wall.) Также следует с осторожностью смешивать стили, которые теоретически различны, например Josephine Wall с Gustav Klimt, или oil painting c charcoal. Лучше подумайте стоит ли такое творчество того.

В ControlNet (CN), в этакой нейросети над(под) главной нейросетью, есть ряд моделей которые способны передать стиль с исходного изображения на целевое в img2img. Самая популярная из них это CN IP-Adapter с препроцессором ip_adapter_clip.

Также можно использовать CN Т2IP-Adapter с препроцессором style_clipvision, который тоже позволяет перенести стиль исходного изображения, но  IP-Adapter-у он проигрывает по качеству, хотя и существовал до него.

В разной степени результативности также можно использовать CN Lineart с препроцессором lineart_realistic, CN Tile с препроцессором resample и CN Reference с препроцессором reference_only.

Из расширений для стилизации могу предложить StylePile, SDXL styles и Stylez с разной степенью полезности и юзабилити.

StylePile - как по мне это мега расширение в плане возможностей. StylePile позоляет выбирать стиль художника (artist), направление (movement) в искусстве и даже настроение (mood) персонажа, причем StylePile позволяет все это смешивать в немыслимых пропорциях с указанием веса для каждого токена. Более того, StylePile визуально показывает шаблоны этих опций пользователю в отличие, например, от SDXL styles.


Monday 4 December 2023

DALL-E и MS Paint.

Всем привет.

Недавно Microsoft добавила в приложение Paint для Windows 11 (23Н2) кнопку генератора изображений с помощью ИИ.

Новый интегрированный генератор преобразования текста в изображение работает на базе модели OpenAI DALL-E 3. Ранее он был доступен только участникам программы тестирования новых функций Windows Insiders. А теперь, как утверждает Microsoft, пользоваться им могут все желающие. Microsoft объясняет на своем сайте, что пользоваться этой функцией легко: нужно создать новое изображение в Paint и нажать на кнопку «Cocreator» в правой части панели инструментов.

Далее напечатать описание (prompt) изображения, которое необходимо сгенерировать. После ввода текста необходимо выбрать стиль, в котором нужно создать изображение, а затем нажать кнопку «Создать». Тогда Cocreator предложит три различных варианта изображения, и можно будет выбрать один из них. Изображение появится в окне Paint и с ним можно будет работать дальше. Если программа Microsoft Paint не установлена (и такое бывает?), ее можно бесплатно загрузить из Microsoft Store.


Важно: чтобы использовать Cocreator, необходимо войти с помощью своей учетной записи Майкрософт. Cocreator использует облачную службу, которая требует проверки подлинности и авторизации. Вход с помощью учетной записи Майкрософт также позволяет получить доступ к кредитам, которые необходимы для создания образов с помощью DALL-E. Пользователю выдается 50 кредитов, что будет если пользователь их использует в ноль, не упоминается. Напомню что через Bing пользователь может использовать 100 кредитов в DALL-E 3 (которые ранее самопополнялись). Совпадает ли счетчик кредитов Bing с Paint проверить пока не удалось.

А теперь про глюки. Имея  Windows 11 (23Н2) я не нашел поначалу кнопки «Cocreator» в Paint. Возможно не пришел нужный апдейт. Также верно что можно пойти в Microsoft Store и обновить Paint там, но фокус в том что мой Microsoft Store заблокирован политикой свыше. Ок, тогда пойдем более длинным путем, а именно скачаем приложение как АРРХ-файл. Тут есть нюанс.

Monday 27 November 2023

Функціональні клавіши.

Всім привіт.

Корисна фішка в ноутбуках це функціональні клавіши. Звісно вони є на усіх клавіатурах, але в ноутбуках вони працюють особливо, в тому сенсі що потребують попередніх установок в BIOS.

Наприклад, в ноутбуках НР для їх логічного, як на мене, функційонування потрібно "вгадати" установки трьох параметрів:


Тільки в цьому випадку функціональні клавіші виконують свої прямі функції та нормально реагують на головну Fn. Звичайно ви повинні мати відповідний драйвер до самої клавіатури.

Хай щастить.

Saturday 25 November 2023

Зачем нам LoRA LCM?

Всем привет.

Сегодня на слуху у всех AI-дизайнеров использующих Stable Diffusion латентные модели согласованности (LCM) которые позволяют формировать качественные изображения обычно за 2-4 шага против 20-ти обычных, что делает возможным использование диффузионных моделей практически в режиме реального времени.

Информация с официального сайта:

LCM могут быть получены из любой предварительно обученной модели стабильной диффузии (SD) всего за 4 000 шагов обучения (~32 часа работы A100 GPU) для генерации высококачественных изображений с разрешением 768 x 768 за 2~4 шага или даже за один шаг, что значительно ускоряет генерацию текста в изображение. Мы используем LCM для дистиллирования версии SD для Dreamshaper-V7 всего за 4 000 итераций обучения.

Обычно такая задача решается с помощью LoRA LCM, которая существует как для версии SD 1.5 так и для SDXL. 

Практически генерация с LCM LoRA требует следующие значения:

СFG = 1,3..1,5

Sampler = LCM

Scheduler = sgm_uniform

Steps = 4..7

LCM LoRA weight = 0.62

Разумеется вы можете экспериментировать сами. И действительно, LCM LoRA неплохо и быстро отрабатывает в ComfyUI и в Fooocus. А вот в А1111 лагает, может из-за того что в А1111 до сих пор нет семплера LCM. 

В ComfyUI workflow собирается стандартный как для любой другой LoRA, а в  Fooocus достаточно выбрать опцию "Extreme Speed" из секции Advanced. 

Thursday 16 November 2023

Про AnimateDiff.

Всем привет.

Как я говорил ранее, расширение AnimateDiff делает революцию в анимации Stable Diffusion благодаря своему алгоритму который буквально с первого прохода показывает поразительную плавность переходов между кадрами.

Каюсь, сперва я решил что оно не может на выходе дать больше чем просто GIF, однако при более тесном знакомстве оно меня приятно удивило. Что приятно его форки есть и для ComfyUI  и для Automatic1111. Даже в ComfyUI его работа понравилась больше, там весь процесс генерации происходит нагляднее. Разумеется есть некоторе особенности, но в сети так много туториалов на эту тему что буду повторяться.

Допустим вы написали простой описательный промпт и решили дать на откуп Stable Diffusion создание самого движения по кадрам анимации. Тогда модель самого AnimateDiff вы можете выбирать любую из трех возможных: mm-Stabilized_high.pth, mm_sd_v15_v2.ckpt, temporaldiff-v1-animatediff.safetensors. Анимация получится неторопливой. Ну а если вам нужен заметный движ в кадре тогда надо соблюсти ряд условий:

- модель AnimateDiff только mm_sd_v15_v2.ckpt

- motion_scale больше 1.

Если вам нужен контролируемый движ в кадре, тогда лучше нацепить парочку motion_lora из того же AnimateDiff. Что важно во всех случаях - движение объектов будет заметно только при генерации кадров от 32 штук и более и это справедливо и для ComfyUI и для Automatic1111.

Приятно что и ComfyUI и Automatic1111 позволяют сделать в AnimateDiff closed loop. Т.е. закончить анимацию на том же кадре на котором начали. Но помните что чем больше кадров тем легче AnimateDiff это выполнить для вас.

Wednesday 15 November 2023

Microsoft Copilot и Windows11.


Всем привет.

Одной из главных фишек Windows11 есть наличие доступа к AI-сервису Microsoft Copilot без web-браузера Edge. Но для этого необходимо соблюсти ряд условий:

1) убедиться, что Copilot не выключен в Параметрах -> Персонализация -> Панель задач.

2) убедиться, что установлено обновление, которое активирует все возможности ОС Windows11 23Н2 - КВ5327597

3) включить с помощью утилиты ViVeTool, которая включает дополнительные возможности ОС Windows11:

- для включения используем команду: 

vivetool /enable /id:44774629,44850061,44776738,42105254,41655236

- для выключения используем команду: 

vivetool /disable /id:44774629,44850061,44776738,42105254,41655236

Утилита живет тут: 

https://github.com/thebookicsclosed/ViVe/releases/download/v0.3.3/ViVeTool-v0.3.3.zip

Что интересно, что вы можете спросить сам Copilot как его активировать на панели задач Windows11. Он вам расскажет примерно тоже самое что написано выше, если не перепутает себя с GitHub Copilot.))

Ок, если у вас с панелько задач не сложилось можете попробовать создать отдельный ярлык на столе куда вписать такую строку вызова:
microsoft-edge:///?ux=copilot&tcp=1&source=taskbar

И может быть вам повезет. Удачи.

Monday 13 November 2023

Обхід обмеження токенів в ChatGPT.

Всім привіт.

Як обійти обмеження токенів та проблеми зберігання історії чатів користувача в ChatGPT? 

ChatGPT автоматично реєструє кожен ваш запит. Ці записи використовуються для подальшого вдосконалення моделі та, можливо, для навчання майбутніх моделей OpenAI. Користувач не може отримати доступ до всіх цих записів. Однак, як обговорювалося раніше, обмежена кількість чатів (запитань і відповідей) зберігається в робочому списку лівої частини інтерфейсу користувача ChatGPT. Щоб найкращим чином використовувати обмежене доступне простір, ви можете видаляти чати, які вам не потрібні для зберігання, копіювати або експортувати дані для зберігання в іншому місці або попросити ChatGPT узагальнити діалог.

ChatGPT пам'ятає, що ви раніше запитували в тому ж чаті, і оперує цим під час спілкування, але тільки до певного моменту. Зокрема, модель пам'ятає до 3000 слів або 4000 токенів діалогу. Вона не може посилатися на інші діалоги, незалежно від того, чи це були раніше діалоги декілька хвилин чи тижнів тому.

Як вже зазначалося, ChatGPT розбиває ваш запит на токени. Проте токени не обов'язково складаються з цілого слова, оскільки пропуски та інша інформація також можуть міститися в токені. OpenAI радить розробникам розглядати токени як "фрагменти слів". Англійська мова більш лаконічна, ніж багато інших мов, і зазвичай вимагає менше токенів для обробки запитань англійською мовою. Нижче подано кілька способів представлення вимірювання токенів в англійській мові:

  • 1 токен приблизно дорівнює 4 символам.
  • 100 токенів приблизно перетворюються в 75 слів.
  • два речення складають приблизно 30 токенів.
  • типовий абзац становить близько 100 токенів.
  • стаття з 1500 слів коштує приблизно 2048 токенів.

Токени використовуються в розрахунках вартості, а також в обмеженнях вхідних і вихідних даних в ChatGPT. Залежно від моделі штучного інтелекту, весь діалог (чат) від введення до виведення обмежений 4097 токенами. Таким чином, якщо ваш запит дуже довгий, скажімо, 4000 токенів, відповідь, яку ви отримаєте, буде обрізана на 97 токенах, навіть якщо це середина речення.

Sunday 12 November 2023

Расширения для face swap в Automatic1111.

Всем привет.

Для выполнения операции по замене лиц (face swap) в Automatic1111 популярными плагинами на сегодня являются три:

  1. ROOP
  2. FaceSwapLab
  3. ReActor.

ROOP был пионером, но автор его развитие забросил, FaceSwapLab очень функционален, а ReActor молод, развивается и весьма прост в общении.

А теперь про детали. 

Говорить что кто-то из них лучше или хуже можно только в плане интерфейса для пользователя ибо для обнаружения лиц они все используют одну и ту же библиотеку inswapper_128.onnx.

Сегодня на слуху у всех ReActor. Ну что ж, ReActor устанавливается аналогично Roop и FaceSwapLab:

git clone https://github.com/Gourieff/sd-webui-reactor

или штатно из Automatic1111. После настоятельно рекомендую перегрузить сервер Automatic1111, а не просто его GUI.

При первой загрузке ReActor может написать нам что-то врoде "RELOAD SERVER...", но тем менее будет загружаться дальше и даже откроет GUI Automatic1111. Сами понимаете что нормально работать ReActor после этого точно не будет. Хотя автор ReActor-а и утверждает что ReActor все ему необходимое доинсталлирует сам, на практике этого не происходит.

Дело в том что если мы ранее использовали что-то на тему faceswap в Automatic1111 (а мы активно пользуемся расширениями RООР и FaceSwapLab), то ReActor требует onnxruntime библиотеку версии 1.14.0 и выше. Вполне вероятно что наша версия ниже.

Поэтому активируем venv и деинсталлируем ее:

..\python\python.exe -m pip uninstall -y onnxruntime onnxruntime-gpu

После опять запускаем Automatic1111 в процессе которого ReActor (или FaceSwapLab) доинсталлирует более свежую версию onnxruntime.

Saturday 11 November 2023

Мышление цепочками.


Всем привет.

Автор книги "ChatGPT for Dummies" Пэм Бейкер призывает нас при общении с ChatGPT мыслить  цепочками. Тогда у нас есть шанс получить в ответ именно то что мы ищем и провести наше время с ChatGPT более эффективно. Что же она имеет ввиду?

Диалоги происходят, когда выражение одной сущности инициирует реакцию другой сущности и тем влияет на нее. Большинство диалогов не завершаются простым обменом репликами, а скорее продолжаются потоком ответов, вызванных взаимодействием с другим участником диалога. Результирующая строка сообщений в диалоге называется цепочкой.

 Чтобы повысить эффективность работы с ChatGPT, пишите запросы как часть потока, а не как отдельные запросы. Таким образом, вы будете создавать запросы, нацеленные на искомые результаты, надстраивая один результат на другом, чтобы достичь зарфанее определенного результата. Другими словами, вам не нужно вкладывать все в один запрос. Вы можете написать серию запросов, чтобы более точно управлять «мыслительными процессами» ChatGPT. Базовые запросы приводят к ответам, которые могут быть слишком общими или расплывчатыми. Когда вы думаете цепочками, вы не стремитесь создать серию базовых запросов; вы хотите разбить то, что вы ищете, на блоки запросов, которые направляют ответы ChatGPT в том направлении, в котором вы хотите, чтобы шел диалог. По сути, вы используете сериализованные запросы для управления содержанием и направлением ответа ChatGPT. 

Это срабатывает каждый раз? Нет, конечно нет. ChatGPT может выбрать совершенно другой ответ, чем ожидалось, повторить предыдущий ответ или просто галлюцинировать. Но сериализованные запросы срабатывают достаточно часто, чтобы вы могли поддерживать целенаправленность диалога и ответы, направленные к цели, которую вы ищете. Вы можете использовать этот метод для формирования единого запроса, представляя себе, как кто-то просит разъяснить вашу мысль или вопрос. Напишите запрос так, чтобы он включал эту информацию, и модель ИИ получит больше контекста, необходимого для предоставления разумного и точного ответа. 

ChatGPT не будет запрашивать разъяснения по вашему запросу, вместо этого он будет догадываться о его смысле. Как правило, вы получите более качественные ответы, уточнив смысл в самом запросе в самом начале. 

Thursday 2 November 2023

SD модели в одном месте.


Всем привет.

Время от времени приходиться перекидывать модели между инструментами генерации картинок ComfyUI и Automatic1111. Если места на дисках не меряно, то можно на это не обращать внимание, однако лучше держать модели в одном месте. Так будет логичнее и для организации у себя единого банка моделей.

Что же для этого можно предпринять? Из тех GUI что есть у меня А1111, ComfyUI, Fooocus и MRE только Automatic1111 не имеет настроек на внешнее расположение файлов моделей (или я плохо искал). Для трех других такие настройки правятся весьма просто. У себя я сделал так что модели для версии 1.5 хранятся в папке Automatic1111, а модели версии SDXL в папке Fooocus. 

Поэтому, например ComfyUI смотрит и туда и туда, файл extra_model_paths.yaml:

a111:

    base_path: D:/SDPortable/

    checkpoints: |

               models/Stable-diffusion

               D:\Fooocus\Fooocus\models\checkpoints

    configs: models/Stable-diffusion

    vae: models/VAE

    loras: |

         models/Lora

         models/LyCORIS

         D:\Fooocus\Fooocus\models\loras

    upscale_models: |

                  models/ESRGAN

                  models/RealESRGAN

                  models/SwinIR

    embeddings: embeddings

    hypernetworks: models/hypernetworks

    controlnet: |

              models/ControlNet

              D:\Fooocus\Fooocus\models\controlnet

Wednesday 1 November 2023

Патчим CuDNN для A1111.

Всем привет.

Тем кто имеет видеокарту Nvidia RTX 30-40 серий и ещё что-то с архитектурой Ada Lovelace например, предлагается относительно быстрый и безболезненный способ пересесть на cudnn 12.1 чтоб всё летало быстро и красиво с А1111.

ВНИМАНИЕ - я копирую здесь рецепт от специалиста, который лично не проверял, так как пока не на чем. Так что вся операция на ваш страх, риск и везение!

Итак:

1. Берем приложенный батник (код ниже), кидаем рядом с тем, с которого обычно запускаем Automatic1111 и запускаем его. Ждём пока оно там отработает и возможно откроет webui. Закрываем webui:

@echo off

set PYTHON=

set GIT=

set VENV_DIR=

set TORCH_COMMAND=pip install --pre torch==2.2.0.dev20231002 torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/cu121

set COMMANDLINE_ARGS=--reinstall-torch

call webui.bat

2. Берем самый свежий CuDNN-установщик zip-архивом, например отсюда:

https://developer.nvidia.com/downloads/compute/cudnn/secure/8.9.5/local_installers/12.x/cudnn-windows-x86_64-8.9.5.29_cuda12-archive.zip/

3. Из архива копируем все файлы из папки bin в  *\StableDif\venv\Lib\site-packages\torch\lib с заменой.

4. Берем наш стандартный батник webui.bat, удаляем все COMMANDLINE_ARGS и заменяем на строки

set CUDA_MODULE_LOADING=LAZY

set PYTORCH_CUDA_ALLOC_CONF=garbage_collection_threshold:0.9,max_split_size_mb:512

set COMMANDLINE_ARGS=--update-check --autolaunch --theme=dark --opt-channelslast --opt-sdp-attention --upcast-sampling

5. Запускаем А1111. 

Как утверждает автор рецепта теперь у вас даже ноутбук сумеет отработать 15it/s в тихом режиме.

Удачи.

Saturday 28 October 2023

А ви творча людина?

Всім привіт.

В цікаві часи живемо, хоча і не спокійні. Скажу чесно що знаю деяких індивидів які зробили вигляд що краще дотримуватись інформаційної гігієни і займатися своїми справами як то було до. 

Ок, не про них, але при цьому я собі для тимчасового релаксу знайшов нове захоплення - ШІ, тобто Stable Diffusion. Ну а для цього як для творчої натури потрібна Муза, хай навіть торішня. Згадав я про таку, а вона, на мій подив, активно шпарить в свій Інстаграм як ні в чому не бувало. Мабуть перевела його на комерційні рейки. То ж поки її клуб не став закритим я вирішив цим скористатися і натицяв з її інсти пару десятків фото та декілька відео. Подружка моя особа яскрава, знаходить декор для власного селфі у будь-чому, тобто вміє себе подати і в дзеркалі і на публіку, то ж довго підходящі фото з нею шукати то є не проблема. Важче знайти фото без неї).

Навіщо то мені? Справа  в тому щоб перевірити свою уяву мені потрібна була LORA модель для Stable Diffusion. Тобто робити наприклад swap face для невідомого обличчя не так цікаво, як для людини яку ти бачив реально в житті. А фото з Інстаграм так чудово підходять для цього за своїм квадратним розміром!)

То ж власну LORA-у я натренував за годину з 30-ти зображень. Головне вибирати ті фото де фон не строкатий, також бажано зарядити на тренування фото в анфас та профіль. Хоча з цим була дєяка проблема бо ж муза не позувала саме для Stable Diffusion.) Вона взагалі про це ще не знала.

Наступним кроком було тренування моделі для FaceSwapLab. Були використані ті самі 30 зображень. Навіщо? Для відпрацювання операції face swap на секвенції зображень де вже сама модель вирішує якє з 30ти облич більше підходить на заміну. До речі з ROOP ви такого не провернете.

Отож, що я тепер маю? А маю я чудову можливість розвинути свою фантазію з Stable Diffusion в плані створення зображень любого стилю і які, увага, 100% не мають копії в інтернет. Тобто питання з Copyright закрито від початку. Щодо моїх моделей я можу в один клік намалювати портрет у вікторіанському стилі з музи. При цьому я можу на 90% відчути тотожність від результату тому що мені знайомі особисті емоції оригіналу. Розумієте до чого я веду?) 

Ви спитаєте - а як же сама муза? Хіба я не поділився з нею? Авжеж поділився, більш того, мої результати та їх кількість за пів року настільки її вразила, що вона навіть відверто засмутилася що мій клон її Інстаграму настільки великий))).

Але все, потяг пішов, Stable Diffusion штука така захоплююча, що мене як творчу людину вже не зупинити.

Такі справи.

Friday 27 October 2023

Update custom nodes в ComfyUI.

Всем привет.

Одной из самых полезных фишек в ComfyUI стало наличие custom nodes. Среди них сильно выделяется ComfyUI Manager который собственно и рулит всем хозяйством в ComfyUI. Именно через него теперь можно обновить как сам ComfyUI так и остальные пакеты с custom nodes. Одна беда - custom nodes попадаются настолько кастомные что обновляются таким образом, т.е. через ComfyUI Manager меню "Fetch updates", через раз.


Поэтому, чтобы наверняка, приходиться делать git pull вручную. Также для этого один славный парень набросал bat-файл. Как им пользоваться? А просто - кладете его в ComfyUI в папку "custom nodes" и там запускаете:

@echo off

call :colored MainApp: Green

git pull

echo ---

for /f %%d in ('dir /B /A:D %CD%') do (

    call :colored %%d: Green

    cd "%CD%\%%d"

    git pull

    echo ---

    cd..

)

@pause

goto :eof

:colored

%Windir%\System32\WindowsPowerShell\v1.0\Powershell.exe write-host -foregroundcolor %2 %1

Удачи!

Tuesday 24 October 2023

Отключаем IP Autoconfiguration.

Всем привет.

Такую ситуацию я наблюдал на виртуальных машинах VmWare, которые имеют IP-адрес реальной машины,  а именно - Windows после запуска автоматически получает IP-адрес от 169. *. *. * И такой адрес в конечном итоге не позволяет машине подключиться к сети, в то время как заданный мною вручную IP-адрес игнорируется.(



В интернете можно прочитать про источник этой проблемы следующее:

автоматическая замена ip адреса происходит из-за технологии APIPA (Automatic Private IP Addressing). Эта технология используется операционной системой windows чтобы присвоить компьютеру ip адрес (вида 169.254.x.x), если он не может достучаться до DHCP сервера, указанного в настройках сетевого адаптера.

Там же находим рецепт лечения через реестр:

для отключения автонастройки IPv4 в Windows необходимо добавить параметр типа DWORD с именем IPAutoconfigurationEnabled со значением 0 в раздел реестра:

[HKEY_LOCAL_MACHINE\System\CurrentControlSet\Services\Tcpip\Parameters\Interfaces\Adapter_GUID]

где Adapter_GUID - это идентификатор сетевой карты.

Saturday 21 October 2023

Мониторинг температуры в Powershell.

Всем привет.

Возвращаясь к мониторингу температуры решил я попробовать измерить сие напрямую через Powershell. Тем более что в Powershell для этого есть класс MSAcpi_ThermalZoneTemperature. 

Код функции Get-Temperature гуляет по сети не первый год:

 function Get-Temperature {

    $t = Get-WmiObject MSAcpi_ThermalZoneTemperature -Namespace "root/wmi"

    $returntemp = @()

    foreach ($i in 0..($t.Count - 1)) {

        $temperatureInstance = $t[$i]

        $currentTempKelvin = $temperatureInstance.CurrentTemperature / 10

        $currentTempCelsius = $currentTempKelvin - 273.15

        $currentTempCelsius = [math]::Round($currentTempCelsius, 2)

        $currentTempFahrenheit = (9/5) * $currentTempCelsius + 32

        $instanceName = $temperatureInstance.InstanceName

        $returntemp += "$instanceName : $currentTempCelsius C"

    }

    return $returntemp

}

Get-Temperature

А вот и ее вывод:


Thursday 19 October 2023

Что нам скажет Get-HotFix?


Привет всем.

Все любят обновляться. А Вы еще не поставили последний патч? Уууу, тогда мы идем к Вам!))

Могу допустить что вам сегодня это не так критично, но мне стало интересно как получить список того что в очередной раз моя Windows 10  на себя накатила. И по быстрому.

Ок, идем в Powershell и запускаем милый командлет Get-HotFix. На экран весело выплывает список из 5 апдейтов. Всего то? Я сомневаюсь, иду в  Control Panel -> installed Updates  и вижу список в два раза больше. Подозреваю что  Get-HotFix показывает только то что относится к самой ОС.


Ок, пробую запрос через WMI: 

Get-WmiObject -class Win32_QuickFixEngineering -namespace "root\cimv2" | Select-Object -Property HotFixID | Out-String

Те же 5 апдейтов в результате. 

Wednesday 18 October 2023

Ошибка 502 CMOS.

Всем привет.

Самая популярная, судя по роликам в youtube, ошибка на ноутбуке бренда НР это несомненно 502 по CMOS. У нас темный экран и мой ноутбук пытается что-то там загрузить, но уходит на второй круг, третий и т.д. Никаких сообщений на экране. Но в какой то случайный момент мы получим сообщение CMOS Reset - рано радоваться, ноутбук все равно продолжит гудеть вентилятором при темном экране.


Ок, что же советуют гуру из yоutube?

1. Снимаем батарею ноутбука и далее работаем только с внешним источником питания. Пробуем загрузиться. Если не получилось, то идем дальше.

2. Отключаем питание полностью, зажимаем кнопку питания на 15 секунд. Включаем питание, пробуем загрузиться. Если не получилось, то идем дальше.

3. Отключаем батарейку BIOS на две минуты, подключаем ее (а лучше новую!) обратно, пробуем загрузиться. Если не получилось, то идем дальше.

4. Отключаем SSD (HDD) диск, включаем ноутбук. Скорее всего вы получите ошибку 3F0, но теперь у вас будет доступ в меню BIOS-a. В меню ищем такие пункты:

Secure Boot - disable

Clear secure boot keys - enable

Legacy Support - enable

Leagcy Boot Order - SSD...

Или что-то подобное, зависит от модели вашего ноутбука. Идея в том в том чтобы активировать Legacy режим или отключить Secure загрузку. С точким зрения НР это наша защита от сбоев, но нам сейчас необходимо восстановить загрузку Windows как таковую.

Нашли и поменяли значения? Отлично, выходим из BIOS и пробуем загрузиться. Если не получилось, то идем дальше.

Friday 6 October 2023

Повторная регистрация HyperV сервера.

Всем привет.

При апгрейде ОС HyperV Windows сервера возможен вариант когда новая версия Windows сносит все текущие установки, в том числе и HyperV роль. Доставить ее повторно не проблема, но в консоли MS SCVMM такой сервер прийдется регистрировать повторно.

Но следует также соблюсти ряд условий:

1) на целевом сервере должна быть активирована служба WinRM. С сервера SCVMM можно проверить доступность службы так: Test-WSMan hv13.forza.com

2) на целевом сервере должен быть отключен фаерволл.

3) на целевом сервере надо включить поддержку CredSSP:

winrm set winrm/config/service/auth '@{CredSSP="true"}' 

А проверить ее можно так:

winrm get winrm/config/service/auth


Все, можно регистрировать обновленный сервер HyperV повторно, если его hostname совпадает со старым, то старый следует предварительно удалить.

Удачи.



Sunday 24 September 2023

Free layer в CapCut.

Всем привет.

CapCut - это мощный инструмент для редактирования видео, которому удается делать то, что получается лишь у небольшого количества других приложений подобного рода: сочетать широкий спектр функций с большой простотой использования. В результате получилось приложение, которое за считанные секунды позволяет создавать видеоролики всех видов и в очень высоком качестве, готовые к публикации в TikTok, Instagram или любой другой социальной сети. Я лично использую его для Youtube.

Пользуясь CapCut хочется иметь полную свободу своих действий, поэтому стоит изначально включить  свободный слой (free layer). Когда свободный слой включен, это означает, что вы можете изменять порядок наложений, например, какой из слоев видео должен быть верхним. При этом, как и положено, верхний слой имеет преимущество (overlay) над слоем который окажется ниже его. По умолчанию когда опция свободного слоя отключена все слои проекта располагаются в предопределенном порядке где вы можете менять местами только слои с видео контентом. Слои с тикерами, текстом и прочим будут всегда сверху. А ведь может так случиться что очередной стикер вы хотите наложить только на одно видео.

Опцию свободного слоя можно включить для всех будущих проектов в Menu/Settings/Edit.


Или же, если так уже случилось, ее можно включить для текущего проекта в правой панели Details нажав кнопку Modify.


Кроме того, тут же вы можете включить Proxy чтобы скорость воспроизведения при редактировании была более плавной.

Удачи.

Friday 22 September 2023

Automatic1111, подскажи мне идею!

Всем привет.

Есть несколько спобосов автоматизировать варианты промптов в Automatic1111. Не утверждаю что они лучшие, но они работают. 

Итак мои варианты:

1. Используем script prompt matrix. Задаем через символ "|" что надо перебирать в нашем промпте young woman in city park | evening | summer.

Можно использовать как в  Positive так и в  Negative. Legend есть.


2. Используем script: X/Y/Z Plot. Выбирам Prompt S/R. Варианты промпта пишем в X values через запятую. Legend есть. Перебрать можно кучу предопределенных других параметров параллельно с промпт.


3. Используем script: Prompts from file or textbox. Промт пишем полностью в List of prompts input or from file или указываем путь к файлу с промптом.


4. Используем Extensions: Style Pile. Перечень токенов пишем в Sequential prompts [X]

Тогда в Basic prompts ссылка будет фигурировать как: [X] art of cat.

Можно пересечь второй партией токенов в SubSequential prompts [Y]

Тогда Basic prompts уже будет выглядеть как  [X] art of cat in [Y] style.

Tuesday 19 September 2023

Анимация в Automatic1111.

Всем привет.

Учитывая популярность Automatic1111 по генерации не только картинок, но и анимации, особенно Shorts, я решил сделать справку по инструментам которые позволяют создать анимацию (короткое видео) в первом приближении не выходя из А1111.

Отдельно замечу что во всех случаях следует также использовать мега-расширеие ControlNet (OpenPose, Canny, Depth, Tile, TemporalNet на выбор) для стилизации будущего видео в одном ключе.

Ок, для генерации анимации в Automatic1111 можно использовать скрипты (Scripts):

1) Loopback Wave V1.4.1:

подготовка секвенции и ключевых кадров из начального кадра(опорного кадра) для последующей сборки в ffmpeg. Промпт можно изменять между кадрами. Сборку финального видео лучше проводить вручную.

2) (Beta) Multi-frame Video rendering - V0.72:

подготовка секвенции и ключевых кадров из исходной секвенции(опорной секвенции) для последующей сборки в ffmpeg. Промпт один для всех кадров.

Также для генерации анимации в Automatic1111 можно использовать расширения (Extensions):

3) SD-CN-Animation:

подготовка секвенции и ключевых кадров из начального кадра(опорного кадра) для последующей сборки в ffmpeg. Промпт можно изменять между кадрами. Но мне не понравилось качество генерации кадров.

4) AnimateDiff:

подготовка секвенции и ключевых кадров из начального кадра(опорного кадра) для последующей сборки GIF. Не оцениваю так как не пробовал.

5) TemporalKit:

подготовка секвенции и ключевых кадров из исходного видео для последующей сборки в EBSynth утилите. Увы, в Automatic1111 версии 1.6.0 не работает, вернее работает но без ключей.

6) EBSynth:

подготовка секвенции и ключевых кадров из исходного видео для последующей сборки в EBSynth утилите. Может работать с маской. В принципе расширение больше похоже на органайзер где больше указано что следует сделать вручную на той или иной стадии процесса, всего из 8, и только три из них автоматизированы.

7) Deforum:

подготовка секвенции и ключевых кадров из исходного видео (или опорного кадра) для последующей сборки. Промпт можно изменять между кадрами. Можно использовать выборку опорных кадров. Можно менять тучу настроек влияющих на процесс.Все логично в нем хотя и сложно на первый взгляд. Работает по принципу "запустил и забыл". Заслуживает отдельного поста. Надеюсь что проект не закинут.

На сегодня все, удачи всем.




Friday 15 September 2023

Секрети комісії OLX.


Всім привіт. 

З 16-го серпня портал  OLX запровадив «Комісію OLX» у категорії Електроніка. На сьогодні вона запроваджена і в інших категоріях OLX-сервісу.

Що таке «Комісія OLX»?

Це оплата, що використовується з метою покращення досвіду користування платформою в рамках послуги OLX Доставка. Вона розповсюджується на всі угоди з OLX Доставка і стягується лише у випадку успішної угоди.

У чому перевага?

Ви не втрачаєте кошти на доставку та повернення товару, якщо покупець від нього відмовиться або не прийде у відділення пошти зовсім. Якщо угода не завершиться успішно, «Комісія OLX» не стягуватиметься. 

Скільки це коштує?

Вартість комісії становить 1% + 10 грн від суми замовлення.

Чому ми запроваджуємо комісію?

Ми прагнемо забезпечити прозору систему оплати за користування OLX. Оплата комісії передбачена лише за успішні угоди, тож це справедливий та взаємовигідний механізм для забезпечення подальшого функціонування платформи.

Зрозуміло все? 

Тобто тепер продавець може себе підстрахувати і врахувати «Комісію OLX» в ціну товара, також варто пам'ятати що пакування товару на пошті також виконується за рахунок продавця.

Але покупець також повинен враховувати «Комісію OLX» як плюс до ціни товару від продавця.)

Тобто тепер OLX з однієї оборудки бере дві комісії!(((

Ось такий кульбіт з нашими грошима з метою покращення сервісу.

Щасти.


Wednesday 13 September 2023

Automatic1111 и restore faces.

Всем привет.

Не так давно вышел в свет очередной релиз Automatic1111 версии 1.6. В основном его переработка была заточена под возможность работы с моделями SDXL Base и Refiner. Мой портабельный Automatic1111 обновился без проблем, правда понадобилась пара тройка полных ребутов, для самого Automatic1111, и для установленных расширений.

Интерфейс не изменился, но попрятали парочку знакомых фишек с вкладок txt2img и img2img. Например Restore faces теперь отключена по умолчанию и скрыта. Если она вам нужна то идем в Settings и там ставим соответствующую галку. Но это еще не все, мы же хотим контролировать процесс, а не доверять ему по умолчанию. Поэтому в User Interface добавляем для вкладок txt2img и img2img опции как на рисунке:


Перегружаем UI. Теперь Restore faces у нас будет здесь.

Кстати сами разработчики  Automatic1111 настоятельно не рекомендуют пользоваться встроенным Restore faces, а использовать что-то внешнее, например ROOP или FaceSwapLab.

И по мелочи - я бы хотел чтобы предустановленные опции в интерфейсе Automatic1111 всегда выбирались из выпадающего списка. Также очень хочется чтобы пути к папкам или файлам тоже можно было выбирать мышкой, а не исключительно копипастом. Мне по старинке кажется что это очевидные вещи must have.)

Удачи.

Sunday 10 September 2023

Типы съемки и Automatic 1111.

Всем привет.

Вот надыбал на днях в сети справку для промпта в Automatic 1111 по типам съемки, позе персонажа и его взгляду. Автор справки Евгений Шумаков.

1. Задать тип съёмки:

Eye-Level Shot

Как один из самых нейтральных вариантов кадрирования, этот тип снимка показывает сцену с типичного уровня человеческого глаза.

Low-Angle Shot

Кинематографисты создают кадры под низким углом, располагая камеру под объектом. Поскольку эти кадры смотрят на объект снизу вверх, они часто придают персонажу силу.

High-Angle Shot

Чтобы сделать кадр под большим углом, операторы размещают камеру над объектом. Поскольку он смотрит на объект свысока, это может добавить к сцене чувство страха или слабости.

Aerial Shot (Drone Shot)

Для создания аэрофотосъемки кинематографисты поднимаются в небо, часто с помощью камер, установленных на дронах. Эти кадры обычно определяют место действия фильма.

Bird’s-Eye Shot

Этот метод кадрирования, также известный как план сверху, показывает объект прямо над головой. Он также включает в себя часть настройки, чтобы добавить больше контекста к сцене.

Over-the-Shoulder Shot

Для этого типа снимка камера снимает объект через плечо другого персонажа. Чаще всего он появляется в сценах с разговорами и личными связями.

Dutch Angle

Для голландского ракурса режиссер размещает камеру под углом. В результате сцена выглядит перекошенной и предполагает дезориентацию.

Handheld Shot

При съемке с рук режиссеры держат камеру, эффективно приглашая зрителей на сцену.

Friday 8 September 2023

VLC и просмотр Youtube видео.


Привет всем.

По ходу медиаплеер VLC можно использовать и для просмотра Youtube видео. Однако "не так сталося як гадалося".

Идем по меню "Media/Open Network stream" вбиваем ссылку на ролик и... получаем ошибку, текст которой ни о чем нам не говорит "Your input can't be opened: VLC is unable to open the MRL". С другими роликами та же история, и это обнадеживает, значит проблема локальная. Ныряем за советом в сеть где находим кучу способов решить проблему отключением (правкой исключениями) фаерволла и антивируса, или обновлением самого VLC. Я всегда критично отношусь к таким глобальным решениям локальных проблем, поэтому свой поиск продолжил.

И вот попалось мне на глаза предложение обновить LUA-скрипт для youtube в самом VLC. А вот это больше похоже на правду, ибо в youtube частенько происходят изменения. Идем сюда

https://github.com/videolan/vlc/tree/master/share/lua/playlist

и скачиваем youtube.lua. Далее идем в свой VLC и ложим его в C:\Program Files\VideoLAN\VLC\lua\playlist. Как вы можете заметить там уже есть youtube.luaс, это скомпилированный LUA-скрипт. Но нет повода для беспокойства, просто переименовываем наш скачаный youtube.lua в youtube.luaс. И все, проблема решена, VLC нормально принимает и нескомпилированный LUA-скрипт.

Теперь "Open Network stream" работает. Удачи.

Friday 1 September 2023

Команды в Discord для Midjourney.

Всем привет.

На сегодня взаимодействие с Midjourney Bot в Discord происходит только с помощью команд. Команды используются для создания изображений, изменения настроек, мониторинга информации о пользователе и выполнения других полезных задач. 

Т.е. разработчики MJ упорно не хотят давать пользователям хоть какое-нибудь GUI делая главную ставку на написание промптов. Рано или поздно я уверен что это будет, и будет нечто загадочное, навороченное и обязательно дорогое). Тем более что ближайшие конкуренты, гиковский GUI А1111 уже близок к тому чтобы поломаться, а витиеватый ComfyUI имеет высокий порог вхождения. Т.е. шансы у MJ занять свою нишу юзаблити еще есть, ну а пока повторяем ее команды в строке Discord-а.

Базовые команды, которые помогают узнать нужную информацию в боте.

Через команды ты можешь взаимодействовать с ботом Midjourney в Discord. Команды используются для создания изображений, изменения настроек по умолчанию, мониторинга информации о пользователе и для других полезных задач.

Команды Midjourney можно использовать в любом канале бота и на частных серверах Discord, где боту Midjourney разрешено работать.

Получить ответ на вопрос

/ask

Переключить пинг уведомлений для обновления канала 

/daily_theme

Переключиться на Fast mode

/fast

Fast mode - это единственный режим генерации, доступный для бесплатного тарифа (25 генераций). При этом режиме твои работы создаются максимально быстро, но так же очень быстро списывается купленное время согласно тарифу. В этом режиме Midjourney тратит твои GPU - часы.GPU часы - это часы работы графического процессора (собственно, GPU), которые тратятся на то, чтобы сгенерировать каждое изображение.

/info

Показывает информацию о твоем аккаунте и о текущей генерации:

  • Subscription – на какой тарифный план ты подписан и дата следующего продления
  • Job Mode – в каком из режимов Fast или Relax mode ты сейчас находишься. Режим Relax доступен только для тарифных планов Standard и Pro
  • Visibility Mode – в каком из режимов Publict или Stealth mode ты сейчас находишься. Режим Stealth доступен только для подписчиков Pro Plan
  • Fast Time Remaining – показывает оставшееся время Fast GPU на месяц. Время Fast GPU сбрасывается ежемесячно и не переносится
  • Lifetime Usage – показывает статистику Midjourney. Изображения включают все типы генераций
  • Relaxed Usage – показывает статистику использования Relax Mode за месяц. При интенсивном использовании Relax Mode время ожидания в очереди будет немного больше
  • Queued Jobs – количество генераций в очереди. Одновременно в очередь может быть поставлено не более семи
  • Running Jobs – количество генераций, которые выполняются в данный момент. Максимум может быть 3.

Wednesday 30 August 2023

ROOP и ComfyUI.

Всем привет.

Существует определенная проблемка с популярным расширением ROOP как для A1111 так и для ComfyUI. Особенности его установки заключаются в том что оно требует предварительной, хотя и одноразовой, компиляции своих пакетов с MS VС++. Не могу сказать почему автор не задейстовал его с МS VC++ Redistributable, но реальность такова что для его нормальной работы необходимо доустанавливать как минимум Visual Studio Build Tools.

Вот один любитель Stable Diffusion посвятил этому отдельное видео.


В принципе эти проблемы из-за пакета insightface, который даже можно доинсталировать вручную, как советует автор ролика, но и это не решает проблему которая обычно выглядит вот так:

### ComfyUI-FaceSwap: Check basic models

Traceback (most recent call last):

  File "C:\SDComfyUI\ComfyUI\nodes.py", line 1693, in load_custom_node module_spec.loader.exec_module(module)

  File "<frozen importlib._bootstrap_external>", line 883, in exec_module

  File "<frozen importlib._bootstrap>", line 241, in _call_with_frames_removed

  File "C:\SDComfyUI\ComfyUI\custom_nodes\ComfyUI-FaceSwap\__init__.py", line 4, in <module>     from .FaceSwapNode import FaceSwapNode

  File "C:\SDComfyUI\ComfyUI\custom_nodes\ComfyUI-FaceSwap\FaceSwapNode.py", line 1, in <module>  import insightface

  File "C:\SDComfyUI\python_embeded\lib\site-packages\insightface\__init__.py", line 18, in <module> from . import app

  File "C:\SDComfyUI\python_embeded\lib\site-packages\insightface\app\__init__.py", line 2, in <module> from .mask_renderer import *

  File "C:\SDComfyUI\python_embeded\lib\site-packages\insightface\app\mask_renderer.py", line 8, in <module> from ..thirdparty import face3d

  File "C:\SDComfyUI\python_embeded\lib\site-packages\insightface\thirdparty\face3d\__init__.py", line 3, in <module> from . import mesh

  File "C:\SDComfyUI\python_embeded\lib\site-packages\insightface\thirdparty\face3d\mesh\__init__.py", line 9, in <module> from .cython import mesh_core_cython

ImportError: DLL load failed while importing mesh_core_cython: The specified module could not be found.

Версия на печать

Популярное